Contents
see ListClaude Opus 4.6 핵심 변경사항
2026년 2월 5일 출시된 Claude Opus 4.6은 Anthropic의 최신 플래그십 모델로, 기존 Extended Thinking을 대체하는 Adaptive Thinking, 1M 토큰 컨텍스트 윈도우(베타), 128K 최대 출력 토큰을 지원한다. 에이전틱 코딩 벤치마크에서 역대 최고 점수를 기록했다.
Adaptive Thinking이란?
Adaptive Thinking은 기존 Extended Thinking의 진화 버전이다. 모델이 요청의 복잡도에 따라 추론 깊이와 범위를 자동으로 조절한다. 간단한 질문에는 빠르게, 복잡한 문제에는 깊이 있게 사고한다.
API에서 Adaptive Thinking 사용
import Anthropic from "@anthropic-ai/sdk";
const client = new Anthropic();
// Adaptive Thinking 활성화 (기본값)
const response = await client.messages.create({
model: "claude-opus-4-6",
max_tokens: 16000,
thinking: {
type: "enabled",
budget_tokens: 10000 // 사고에 할당할 최대 토큰
},
messages: [{
role: "user",
content: "이 알고리즘의 시간복잡도를 분석해줘"
}]
});
// 응답에서 thinking 블록과 text 블록 분리
for (const block of response.content) {
if (block.type === "thinking") {
console.log("사고 과정:", block.thinking);
} else if (block.type === "text") {
console.log("최종 답변:", block.text);
}
}Context Compaction (컨텍스트 압축)
Opus 4.6의 또 다른 핵심 기능은 자동 컨텍스트 압축이다. 대화가 컨텍스트 윈도우 한계에 가까워지면 서버 측에서 이전 대화를 자동 요약하여, 사실상 무한 대화가 가능하다.
// 스트리밍 + 컨텍스트 압축 예시
const stream = await client.messages.stream({
model: "claude-opus-4-6",
max_tokens: 8192,
system: "You are a code reviewer.",
messages: longConversationHistory, // 매우 긴 대화
});
// 자동 압축이 발생하면 이전 메시지가 요약됨
for await (const event of stream) {
if (event.type === "content_block_delta") {
process.stdout.write(event.delta.text);
}
}Model Context Protocol (MCP) 연동
2026년 3월 업데이트로 MCP elicitation이 추가되어, Claude Code가 수백 개의 도구 중 컨텍스트에 맞는 도구만 lazy loading으로 활성화한다. MCP를 통해 Claude는 단순 챗봇을 넘어 GitHub, Slack, Jira, Google Drive 등과 통합되는 허브가 된다.
MCP 서버 설정 예시
// .claude/settings.json 내 MCP 서버 설정
{
"mcpServers": {
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": {
"GITHUB_TOKEN": "ghp_xxxx"
}
},
"slack": {
"command": "npx",
"args": ["-y", "@anthropic/mcp-server-slack"],
"env": {
"SLACK_BOT_TOKEN": "xoxb-xxxx"
}
}
}
}Fast Mode와 출력 토큰
Fast Mode는 동일한 Opus 4.6 모델을 사용하되 출력 토큰 생성 속도가 최대 2.5배 빨라진다. 프리미엄 가격이 적용되지만, 대량 코드 생성이나 긴 문서 작성에 적합하다. 최대 128K 출력 토큰으로 더 긴 사고 예산과 포괄적인 응답이 가능하다.
모델 선택 가이드
| 모델 | 용도 | 컨텍스트 | 출력 |
|---|---|---|---|
| Opus 4.6 | 복잡한 추론, 에이전틱 코딩 | 200K (1M 베타) | 128K |
| Sonnet 4.6 | 균형잡힌 성능/비용 | 200K | 64K |
| Haiku 4.5 | 빠른 응답, 간단한 작업 | 200K | 8K |
Opus 4.6은 특히 다단계 에이전틱 작업, 대규모 리팩토링, 아키텍처 설계에서 기존 모델 대비 크게 향상된 성능을 보인다. Adaptive Thinking과 MCP를 결합하면 외부 도구와 깊이 있는 추론을 동시에 활용하는 강력한 AI 워크플로우를 구축할 수 있다.