달고나 77. Deep 슬롯 사이트 해부학
A Technical Anatomy of Deep 슬롯 사이트
Deep 슬롯 사이트: Agentic AI for 슬롯 사이트
ChatGPT 이후로 지난 2년여는 AI 세계에서는 거의 영겁의 시간이었다. 거의 매주, 아니 매일 새로운 Foundation Model이 업데이트되고 새로운 서비스가 등장하고 새로운 방법론이 등장했다. 최근에 AI 커뮤니티를 가장 뜨겁게 달군 주제는 아마도 Deep 슬롯 사이트 류의 서비스가 아닌가 싶다. 지난해 말에 구글에서 처음 Deep 슬롯 사이트를 내놓았을 때는 그래도 구글이 자존심을 세웠다고 생각했는데, 지난 2월에 오픈AI에서 Deep 슬롯 사이트를 내놓은 후로 다시 여론은 오픈AI로 기울었다. 몇 주가 지난 지금 Perplexity, xAI를 비롯해서 여러 회사에서 비슷한 서비스를 계속 내놓고 있다. 지난 2년을 뒤돌아보면 딥리서치가 어느 날 갑자기 하늘에서 뚝떨어진 서비스가 아님을 알 수 있다. 어떤 기술적 배경에서 딥리서치가 출현했는지 기술하려 한다. 언제나 그렇듯이 개념적인 이해를 돕기 위함이므로 디테일에 오류가 있을 수 있다. 그런 오류를 찾아내는 것도 AI 시대에 살아남는 법을 익히는 것이니 너그러이 넘어가거나 댓글을 남겨주기 바란다.
아래 그림에 LLM 파운데이션 모델에서부터 Deep 슬롯 사이트에 이르는 기술 진화도를 대략적으로 그렸다.

LLM (Foundation Model)
LLM, 즉 Large Language Model은 Transformer 아키텍처를 기반으로 방대한 텍스트 데이터 (일단 멀티모달리티는 무시함)로 학습한 Foundation Model이다. 별도의 튜닝이 없는 비지도 pre-tr슬롯 사이트ned model일 수도 있고, SFT (supervised fine-tuning)나 reinforcement learning 등을 통한 alignment를 거친 instruct model일 수도 있다.
예: OpenAI GPT-4o/4.5, 구글 Gemini 2.0, Meta LLaMA 3.3, xAI Grok 3, Anthropic Claude 3.7 Sonnet (Hybrid), 슬롯 사이트Seek V3, Alibaba Qwen 2.5 등
다른 여러 문제들이 있지만, 생성된 저작물의 품질 측면에서 초기 LLM들이 갖은 문제점으로 1) Hallucination으로 알려진 때론 사실에 부합하지 않는 생성물, 2) 학습 데이터 이후의 정보 최신성 부족, 3) 단순 텍스트 나열식의 액션 불가, 그리고 4) 심도 깊은 질의 의도 파악 불가 등이 있다.
RAG (Retrieval-Augmented Generation)
먼저 Hallucination을 막기 위해서 더 많은 데이터로 더 큰 모델을 학습 (Scaling Law)해서 어느 정도 해결했지만 근본적인 해결책은 될 수 없다. 그래서 사용자가 지정한 문서나 사용자 질의에 부합하는 데이터를 참조해서 텍스트를 생성함으로써 Hallucination이 많이 줄어들었다. 하지만 Data Store에 적합한 문서가 없거나 내용이 부실하거나 또는 최신 문서가 없으면 저작물의 품질이 여전히 낮을 수 있다.
슬롯 사이트 Agent
초기 LLM은 단지 pl슬롯 사이트n 텍스트 문서만을 생성하는 도구였다. 즉, 주변의 프로그램이나 컴퓨터 리소스를 활용할 수 없다. 그래서 기존 API을 호출하거나 새로운 code를 작성, 실행해서 내외부 컴퓨터 프로그램, 인터넷 브라우저, 또는 로봇 등을 실행, 제어하는 actionable이 가능하다.
AI 슬롯 사이트
별도의 Data Store 기반의 RAG가 갖는 태생적 한계를 넘어, 인터넷상의 방대한 최신 데이터를 활용하는 방안으로 AI 슬롯 사이트가 등장했다. AI Agent가 갖는 자율성을 적극 활용해서 사용자 질의에 잘 부합하는 고품질의 검색 결과를 생성할 수 있다.
예: Perplexity, You.com, Google AI Overview, OpenAI ChatGPT 슬롯 사이트, (국내) liner, goover, oo.ai 등
Reasoning
사용자의 질의 의도를 제대로 파악하지 못하고 단순 Next-Token만을 뱉어냄으로써 (특히) 복잡한 문제에서 틀린 답을 내놓는 경우가 잦다. 초기부터 prompt에 단순히 step-by-step를 추가하면 LLM이 CoT (Ch슬롯 사이트n of Thought) 방식으로 더 좋은 답변을 내놓는다는 것이 알려졌고, 이후 트리나 그래프 형식으로 추론하거나 Best-of-N이나 MCTS 등의 검색 방법론을 활용해서 더 나은 결과를 얻을 수 있었다. 그래서 최근 오픈슬롯 사이트의 o1을 필두로 해서 이런 reasoning 기능을 prompt 조작없이 내재한 모델이 쏟아져 나오고 있다.
예: OpenAI o1/o3, Google Gemini Flash Thinking, Anthopic Claude 3.7, 슬롯 사이트Seek R1, Alibaba QwQ-32B 등
Deep 슬롯 사이트
이상에서 소개한 모든 기술들이 유기적으로 결합된 서비스가 딥리서치다. 딥리서치는 1) 사용자의 질의 의도를 분석, 파악해서, 2) 하위 문제로 분해하여 별도의 쿼리로 관련 데이터를 탐색하고, 3) 모든 데이터를 종합적으로 검토, 검증해서, 최종적으로 4) 심도 깊은 리포트를 생성한다. 그래서 Deep 슬롯 사이트를 한 문장으로 요약하면 ‘Agentic AI for 슬롯 사이트 (or Work)’다. (** AI Agent와 Agentic AI를 엄밀히 구분해서 사용하는 경우도 있는데, 저의 견해로는 Agentic AI = AI Agent + Reasoning이다.)
예: Google Deep 슬롯 사이트, OpenAI Deep슬롯 사이트, Perplexity Deep 슬롯 사이트, xAI Deep Search, SciSpace Deep Review, You.com ARI, SurveyX, Manus.im, liner Deep 슬롯 사이트 등
최근 구글에서 Co-Scientist도 선보였는데, 단순 자료, 시장 조사를 넘어 연구 전반을 assist 한다. 논문으로 나온 Agent Laboratory도 비슷하다.
이상 끝.