![]()
2026년 3월 첫째 주, AI 업계는 전례 없는 정책 충돌로 뜨겁게 달아올랐습니다. 미국 국방부가 AI 스타트업 앤트로픽(Anthropic)을 “공급망 위험(Supply-Chain Risk)”으로 지정하면서 AI 안전성과 군사 활용을 둘러싼 논쟁이 세계적인 주목을 받고 있습니다. 이와 동시에 OpenAI는 GPT-5.3 Instant를 출시하고 GitHub 경쟁 서비스를 개발하는 등 기술 경쟁도 쉼 없이 진행 중입니다. 이번 주 AI 업계의 핵심 뉴스를 심층 분석합니다.
앤트로픽 vs 미 국방부: 자율 살상무기 허용 거부의 전말
협상의 배경: 군사 AI 활용 범위를 둘러싼 갈등
2026년 2월 말부터 미국 국방부(펜타곤)와 앤트로픽 사이에는 수 주간 긴장된 협상이 진행됐습니다. 핵심 쟁점은 단순했지만 파급력은 거대했습니다. 국방부는 앤트로픽의 Claude AI를 “모든 합법적 목적”에 활용할 수 있도록 허용해달라고 요구했습니다. 여기에는 인간의 감독 없이 자율적으로 표적을 선정하고 공격하는 자율 살상무기 시스템과 대규모 국내 감시(Mass Domestic Surveillance)가 포함되어 있었습니다.
앤트로픽은 2024년 6월부터 미군의 기밀 네트워크에 Claude를 처음 배포하며 국방부와 협력해왔습니다. 그러나 회사의 핵심 원칙인 “책임 있는 AI 사용”과 충돌하는 요구에는 응하지 않겠다는 입장을 유지했습니다. 앤트로픽 CEO 다리오 아모데이(Dario Amodei)는 공개 성명을 통해 “이 위협들이 우리의 입장을 바꾸지 않는다. 우리는 양심에 따라 그들의 요구에 동의할 수 없다”고 밝혔습니다.
공급망 위험 지정: 전례 없는 조치
2026년 2월 27일(현지 시각), 도널드 트럼프 대통령이 Truth Social에 연방 정부의 앤트로픽 제품 사용 금지를 발표한 지 약 2시간 뒤, 피트 헤그세스(Pete Hegseth) 국방장관은 앤트로픽을 “공급망 위험”으로 공식 지정했습니다. 이 지정은 일반적으로 외국 정부와 연관돼 국가 안보에 위협이 되는 기업에만 적용하는 조치로, 미국 기업에 공개적으로 적용된 것은 전례가 없는 일입니다.
이 지정에 따라 국방부와 계약하는 모든 기업은 앤트로픽과 “어떠한 상업적 거래”도 할 수 없게 됩니다. AWS, Palantir 등 Claude를 활용해 국방부 업무를 처리하던 주요 방산 기업들이 직접적인 영향권에 들었습니다. CNBC 보도에 따르면 방산 계약업체들은 법적 분쟁 결과를 기다리지 않고 “과도한 주의” 차원에서 사전에 Claude 사용을 중단하기 시작했습니다.
특히 주목할 사실은, 트럼프 대통령이 앤트로픽 사용 금지를 선언한 지 불과 수 시간 후 미군이 이란에 대한 대규모 공습을 단행했는데, 그 공습의 표적 선정 및 정보 분석에 Claude가 활용됐다는 사실이 월스트리트저널(WSJ)을 통해 알려졌습니다. 이 아이러니한 상황은 AI 기술이 이미 군사 작전에 얼마나 깊이 침투해 있는지를 단적으로 보여줍니다.
AI 업계 전반의 파장과 OpenAI의 대응
이 분쟁은 AI 업계 전체로 확산됐습니다. Amazon, Google, Microsoft, OpenAI, xAI 등의 현직 및 전직 직원 수백 명이 “국방부의 요구를 거부하라”고 촉구하는 서한에 서명했으며, 700,000명 이상의 기술 노동자를 대표하는 단체들도 공동 성명을 발표했습니다.
반면 OpenAI는 다른 선택을 했습니다. 샘 알트만(Sam Altman) CEO는 미군이 OpenAI 모델을 “기밀 네트워크에 배포”할 수 있도록 허용하는 새로운 협약을 체결했다고 발표했습니다. 다만 “대규모 국내 감시 금지”와 “자율 무기 시스템에 대한 인간 책임”이라는 조항을 포함시켰다고 밝혔습니다. 전직 트럼프 보좌관 딘 볼(Dean Ball)은 앤트로픽에 대한 공급망 위험 지정을 “기업 살인 시도(Attempted Corporate Murder)”라고 표현하며, 이것이 AI 업계 전체에 한파를 가져올 수 있다고 경고했습니다.
앤트로픽은 모든 공급망 위험 지정에 대해 법원에서 다툴 것이라고 선언했으며, 6개월의 단계적 전환 기간이 주어진 상태입니다. 한편 OpenAI 공동창업자 출신 일리야 수츠케버(Ilya Sutskever)는 자신의 소셜미디어 계정에 “앤트로픽이 물러서지 않은 것은 매우 좋은 일이며, OpenAI가 비슷한 입장을 취한 것도 중요하다”고 밝혔습니다. 이 사건은 AI 기업들이 AI 안전 원칙과 정부 계약 사이에서 어떤 선택을 내려야 하는지를 놓고 업계 전체의 근본적인 논의를 촉발했습니다.
미래이음연구소 AI 교육 안내
이신우 소장이 이끄는 미래이음연구소에서는 최신 AI 트렌드를 현장에서 바로 적용할 수 있는 실전 교육을 진행합니다.
강의 문의: 010-3343-4000 | lab.duonedu.net
GPT-5.3 Instant 출시: 환각 26.8% 감소, 더 자연스러운 AI 대화
무엇이 달라졌나
OpenAI는 2026년 3월 3일(현지 시각), ChatGPT에서 가장 많이 사용되는 모델을 업데이트한 GPT-5.3 Instant를 전체 사용자에게 출시했습니다. 이번 모델은 기술 성능 향상보다 실제 사용자 경험 개선에 초점을 맞춘 업데이트입니다.
가장 주목할 만한 개선점은 환각(Hallucination) 감소입니다. OpenAI 내부 평가에 따르면, 의학·법률·금융 등 고위험 분야에서의 환각률이 웹 검색을 활용할 때 26.8%, 내부 지식만 사용할 때 19.7% 감소했습니다. 사용자가 직접 오류를 신고한 대화 기반 평가에서도 웹 사용 시 22.5%, 오프라인 시 9.6%의 환각 감소가 확인됐습니다.
또한 이전 모델(GPT-5.2 Instant)이 “소름 돋는(Cringe)” 답변을 한다는 사용자 피드백을 반영해, 불필요한 거절이나 지나치게 방어적인 서두, “잠깐, 숨을 고르세요” 같은 과도한 감정적 개입을 줄였습니다. 웹 검색 결과를 단순히 나열하는 방식에서 벗어나 모델의 기존 지식과 통합해 더 맥락에 맞는 답변을 제공하는 능력도 강화됐습니다.
GPT-5.3 Instant는 모든 ChatGPT 사용자에게 무료로 제공되며, API에서는 gpt-5.3-chat-latest로 접근할 수 있습니다. 기존 GPT-5.2 Instant는 유료 사용자를 위해 레거시 모델 섹션에서 3개월간(2026년 6월 3일까지) 유지된 후 서비스가 종료됩니다.
OpenAI GitHub 경쟁 서비스 개발 및 기타 AI 업계 동향
OpenAI, 코드 저장소 서비스 개발 착수
OpenAI가 GitHub의 경쟁 서비스인 자체 코드 저장소(Repository) 개발에 나섰습니다. 최근 잦은 GitHub 장애 사태가 계기가 됐습니다. 아직 개발 초기 단계로 완성까지 수개월이 걸릴 것으로 예상되며, OpenAI 고객들에게 우선 제공하는 방안을 검토 중입니다. 이는 OpenAI의 핵심 투자자이자 GitHub 모회사인 Microsoft와의 직접 경쟁을 의미합니다. AI 기업들이 AI 도구를 넘어 개발자 인프라 전반으로 영역을 확장하는 추세를 보여주는 사례입니다.
Meta, AI 쇼핑 도우미 베타 테스트 시작
Meta가 미국 테스터들을 대상으로 AI 쇼핑 연구 도구의 베타 테스트를 시작했습니다. Bloomberg 보도에 따르면 이 도구는 ChatGPT와 Gemini의 유사 기능에 대응하기 위한 것입니다. 이로써 OpenAI, Google, Meta 세 거대 AI 기업 모두 AI 기반 쇼핑 도우미 서비스를 제공하게 됐습니다. AI 쇼핑 도우미 시장은 소비자들의 구매 결정 과정을 근본적으로 바꿀 것으로 예상되며, 각사의 광고 수익 모델과도 직결됩니다.
인간형 로봇, 유럽과 중국 자동차 공장 진출
2026년 3월 기준으로 인간형 로봇(Humanoid Robot)이 유럽과 중국의 자동차 조립 라인에 본격 투입되기 시작했습니다. AI Business 보도에 따르면 자동차 제조업체들이 반복적이고 위험한 작업에 인간형 로봇을 도입하는 속도가 빠르게 증가하고 있습니다. 현대자동차도 한국에 AI 로보틱스 허브를 구축하고 있으며, NVIDIA는 AI 인프라 확장을 위해 관련 기업들에 40억 달러(약 5조 6,000억 원) 투자를 발표했습니다. 제조업에서의 AI·로봇 융합은 2026년 가장 빠르게 성장하는 AI 활용 분야 중 하나입니다.
AI 위키피디아 번역의 환각 문제 심각
비영리 단체 Open Knowledge Association(OKA)이 AI를 활용해 위키피디아 문서를 번역하는 과정에서 출처 조작, 허위 정보 추가, 관련 없는 내용 삽입 등 심각한 환각 문제가 발생했습니다. 404 Media 보도에 따르면 위키피디아 편집자들은 OKA 번역가들에 대한 기여 제한 및 오류 적발 시 계정 차단 등 규제 조치를 취하기 시작했습니다. 이 사례는 AI를 대규모 정보 생성과 번역에 활용할 때 반드시 인간의 교차 검수가 필요함을 다시 한번 보여줍니다.
오늘 바로 실천할 수 있는 것
- ChatGPT를 사용 중이라면 최신 GPT-5.3 Instant 모델이 적용됐는지 확인하고, 웹 검색 기능과 함께 활용해 환각 위험을 최소화하세요.
- 업무에서 AI를 활용 중이라면 해당 AI 서비스의 이용약관과 안전 정책(Acceptable Use Policy)을 확인하고, 자사의 AI 사용이 어떤 계약 조건 하에 이뤄지는지 파악해두세요.
- AI 생성 콘텐츠를 출처로 활용할 때는 반드시 원본 자료를 직접 확인하는 교차 검증 습관을 들이세요. 위키피디아 사례처럼 AI 환각은 예상치 못한 곳에서 발생합니다.
자주 묻는 질문
Q: 앤트로픽의 공급망 위험 지정이 우리나라 기업에도 영향을 미치나요?
A: 이 지정은 미국 국방부와 직접 계약을 맺은 기업들에 주로 적용됩니다. 한국 기업이 미국 방산 계약을 보유하지 않는다면 직접적인 영향은 없습니다. 다만 Claude를 활용한 서비스의 기업 전략 변경, AWS나 Palantir 등 주요 파트너사의 Claude 활용 가능성 감소 등 간접적인 영향은 주시해야 합니다.
Q: GPT-5.3 Instant와 이전 GPT-5.2 Instant의 차이는 무엇인가요?
A: 가장 큰 차이는 정확도와 자연스러운 대화입니다. 환각률이 최대 26.8% 감소했고, 불필요한 거절이나 과도한 경고 문구가 줄었습니다. 특히 웹 검색 결과를 단순 나열하던 방식에서 모델의 지식과 결합해 맥락 있는 답변을 제공하는 방식으로 개선됐습니다. 성능 향상보다는 일상적 사용 경험의 부드러움에 집중한 업데이트이며, 모든 사용자에게 무료로 제공됩니다.
Q: AI 자율 살상무기는 어떤 의미이고 왜 문제가 되나요?
A: 자율 살상무기(Lethal Autonomous Weapons)는 인간의 직접적인 판단 없이 AI가 스스로 표적을 선정하고 공격을 실행하는 시스템입니다. 오류 시 민간인 피해, 책임 소재 불명확, 알고리즘 편향으로 인한 부당한 표적 선정 등이 주요 우려 사항입니다. 앤트로픽은 현재 AI 기술의 신뢰도가 이러한 용도에는 충분하지 않다는 입장이며, 이 원칙을 지키기 위해 미국 정부와의 계약을 포기한 상황입니다.
Q: OpenAI가 GitHub 경쟁 서비스를 만들면 어떻게 되나요?
A: OpenAI가 자체 코드 저장소를 출시한다면, AI 기반 코드 제안 기능과 자사 AI 도구를 직접 통합한 개발자 플랫폼이 탄생할 가능성이 높습니다. 이는 GitHub Copilot을 통해 이미 코드 AI를 제공하는 Microsoft와의 갈등을 심화시킬 수 있습니다. OpenAI에 대규모 투자를 집행한 Microsoft 입장에서는 복잡한 상황이 될 것입니다.
이번 주 AI 업계의 핵심은 기술 진보만큼이나 AI를 어디까지, 어떻게 사용할 것인가에 대한 경계선을 어디에 그을 것이냐는 문제입니다. 앤트로픽의 사례는 AI 안전에 대한 원칙이 수십억 달러의 정부 계약과 충돌할 때 기업이 어떤 선택을 해야 하는지를 보여준 역사적 사건으로 기록될 것입니다. GPT-5.3 Instant처럼 모델이 더 정확하고 자연스러워지는 동시에, AI가 사회와 국가 안보에 미치는 영향력에 대한 논의도 더욱 심화될 전망입니다.
AI 기술 활용과 교육에 대해 더 알고 싶다면 두온교육(main.duonedu.net)과 미래이음연구소(lab.duonedu.net)를 방문해보세요. 이신우 소장이 이끄는 미래이음연구소는 최신 AI 트렌드를 현장에서 바로 적용할 수 있는 실전 교육 프로그램을 운영합니다.
미래이음연구소 AI 교육 안내
이신우 소장이 이끄는 미래이음연구소에서는 최신 AI 트렌드를 현장에서 바로 적용할 수 있는 실전 교육을 진행합니다.
강의 문의: 010-3343-4000 | lab.duonedu.net