반응형

chainofthought 2

🧠 LLM도 ‘추론 능력’이 다 다르다? Chain-of-Thought란 무엇인가

안녕하세요!오늘은 LLM(Large Language Model)의 추론 능력을 높이는 핵심 전략,바로 Chain-of-Thought(CoT) 에 대해 이야기해보려고 합니다.요즘 AI 모델을 쓰다 보면 이런 경험, 한 번쯤 해보셨을 거예요.🤔 “답은 맞는 것 같은데… 뭔가 논리 전개가 이상해.”🤯 “같은 질문인데 GPT-3.5는 틀리고, Claude는 잘 맞추더라?”그 이유는 간단합니다.👉 모델마다 추론 능력이 다르고,👉 그 성능 차이를 극복하기 위해 만들어진 전략이 바로 Chain-of-Thought입니다.🔍 Chain-of-Thought(CoT)란?Chain-of-Thought, 줄여서 CoT는 말 그대로“생각의 흐름”을 유도하는 프롬프트 전략입니다.즉,답을 곧바로 요청하는 대신,AI가 중간 ..

개발일기 2025.05.14

📝 AI 시대, 검색보다 중요한 건 ‘질문력’이다

“ChatGPT가 뻔한 얘기만 하던데요?”“GPT는 결국 말장난 아닌가요?”한 번쯤 들어보셨을 겁니다.하지만 같은 GPT에게도 질문을 다르게 하면 완전히 다른 답변이 나온다는 사실, 알고 계셨나요?이제는 단순한 명령이나 검색어가 아니라,**문제를 설계하고 맥락을 줄 수 있는 ‘질문력’**이 진짜 실력인 시대입니다.🔍 GPT는 ‘질문에 민감한 존재’입니다ChatGPT, Claude 같은 LLM은입력된 텍스트(프롬프트)를 기반으로 답을 생성하는 구조입니다.즉, AI는 이해하거나 판단하지 않고,사용자의 질문에 따라 가장 가능성 높은 답변을 생성할 뿐이에요.그렇기 때문에 질문이 애매하면 결과도 애매하고,질문이 구체적이면 결과도 구체적일 수밖에 없습니다.🤯 예시로 비교해볼게요❌ “피카소는 어떤 사람이야?”→ ..

개발일기 2025.05.13
반응형