Anthropic의 CEO 다리오 아모데이(Dario Amodei)는 최근 실리콘밸리를 강타한 중국 AI 기업 DeepSeek의 R1 모델에 대해 우려를 표했습니다. 그리고 그의 걱정은 단순히 DeepSeek이 사용자 데이터를 중국으로 보낼 가능성에 대한 것보다 더 심각할 수 있습니다.
아모데이는 ChinaTalk 팟캐스트에서 진행된 조던 슈나이더(Jordan Schneider)와의 인터뷰에서 DeepSeek이 Anthropic이 실시한 안전성 테스트에서 생물무기 관련 희귀 정보를 생성했다고 밝혔습니다.
그는 “DeepSeek의 성능은 우리가 테스트한 모든 모델 중 최악이었다”며, “이 정보를 생성하는 데 있어 아무런 차단 장치가 없었다”고 주장했습니다.
아모데이는 이것이 Anthropic이 다양한 AI 모델을 평가할 때 수행하는 국가 안보 위험 분석의 일부라고 설명했습니다. 그의 팀은 특정 모델이 구글 검색이나 교과서에서 쉽게 찾을 수 없는 생물무기 관련 정보를 생성할 수 있는지를 평가해 왔습니다. Anthropic은 AI 안전성을 중요하게 고려하는 기업으로 스스로를 포지셔닝하고 있습니다.
그는 DeepSeek의 모델이 현재로서는 “즉각적인 위험”을 초래하는 수준은 아니지만, 가까운 미래에는 위험해질 가능성이 있다고 경고했습니다. 또한 DeepSeek의 엔지니어들을 “재능 있는 개발자들”이라고 평가하면서도, “AI 안전성 문제를 진지하게 받아들일 필요가 있다”고 조언했습니다.
아모데이는 또한 중국으로의 반도체 수출을 강력히 제한해야 한다는 입장을 지지해 왔으며, 이는 중국군이 AI 기술에서 우위를 점할 가능성 때문이라고 주장했습니다.
그러나 이번 인터뷰에서 Anthropic이 테스트한 DeepSeek의 모델이 정확히 어떤 것이었는지, 또는 테스트에 대한 기술적 세부 사항은 밝히지 않았습니다. Anthropic은 TechCrunch의 논평 요청에 즉각 응답하지 않았으며, DeepSeek 역시 입장을 내놓지 않았습니다.
DeepSeek의 급부상은 AI 안전성 문제와 관련해 다른 곳에서도 우려를 불러일으키고 있습니다. 예를 들어, 시스코(Cisco)의 보안 연구원들은 지난주 DeepSeek R1이 안전성 테스트에서 모든 유해 프롬프트를 차단하지 못했으며, ‘100% 탈옥(jailbreak) 성공률’을 기록했다고 밝혔습니다.
시스코는 생물무기 관련 문제를 직접 언급하지는 않았지만, DeepSeek이 사이버 범죄 및 기타 불법 활동과 관련된 유해 정보를 생성하도록 유도할 수 있었다고 밝혔습니다. 다만, 메타(Meta)의 Llama-3.1-405B와 OpenAI의 GPT-4o 역시 각각 96%와 86%의 높은 실패율을 기록했다는 점도 주목할 만합니다.
이러한 안전성 우려가 DeepSeek의 빠른 성장에 타격을 줄지는 아직 불확실합니다. AWS와 마이크로소프트(Microsoft)와 같은 기업들은 R1 모델을 자사의 클라우드 플랫폼에 통합할 계획을 공개적으로 밝혔으며, 이는 역설적으로 Anthropic의 최대 투자자인 아마존(Amazon)과도 연관이 있습니다.
반면, 미국 해군(U.S. Navy)과 국방부(Pentagon)를 비롯한 여러 국가 및 정부 기관, 기업들이 DeepSeek을 금지하기 시작하면서, 규제가 확산될 가능성도 커지고 있습니다.
이러한 조치가 얼마나 효과를 발휘할지는 시간이 지나야 알겠지만, 아모데이는 DeepSeek이 이제 미국의 대표적인 AI 기업들과 경쟁하는 새로운 강자로 떠오르고 있다고 평가했습니다.
그는 ChinaTalk에서 “새로운 경쟁자가 등장했다는 것이 중요한 사실”이라며, “Anthropic, OpenAI, 구글(Google), 어쩌면 메타와 xAI까지 포함해 AI를 훈련할 수 있는 대형 기업들이 있었는데, 이제 DeepSeek이 그 목록에 추가될 수도 있다”고 말했습니다.