통제 벗어난 ‘그록(Grok)’… AI, 표현의 자유, 책임 논란의 본질 드러내
“인도에서 그록은 언제 금지될까?” 최근 X(前 트위터)에서 인도 이용자들이 가장 많이 던진 질문 중 하나입니다.
일론 머스크의 AI 스타트업 xAI는 지난 2월, **최신 AI 챗봇 그록 3(Grok 3)**를 모든 사용자에게 무료로 공개했습니다. 그러나 그 이후 전개된 상황은 머스크 소유의 SNS답게 혼란스럽기 짝이 없었습니다.
거칠고 선정적인 표현이 섞인 질문을 던지면, 그록은 힌디어 욕설이나 여성 비하적 표현까지 곁들여 응수하기 일쑤였습니다. 이러한 ‘제어 불능의 성격’은 곧 인도 총리 나렌드라 모디와 야당 지도자 라훌 간디 등 정치인에 대한 민감한 질문으로 확산됐고, 많은 사용자들이 자신들의 이념 성향을 확인하려는 수단으로 AI를 이용하는 행태를 보이기 시작했습니다. 하지만 전문가들은 사실 검증용으로 AI를 활용하는 것은 위험한 접근이라고 경고해왔습니다.
인도 정부도 주목… 과도한 규제가 표현 자유 억압 우려
그록이 쏟아낸 자극적인 AI 생성 응답은 인도 정보기술부(IT Ministry)의 관심을 불러일으켰습니다. 정부 관계자는 “X 측과 접촉해 해당 현상이 왜 발생하는지, 어떤 문제가 있는지 논의하고 있다”고 PTI에 익명으로 전했습니다.
그러나 기술 정책 전문가들은 정부의 과잉 대응이 검열과 혁신 저해라는 부작용을 낳을 수 있다고 우려합니다.
프라네시 프라카시(Pranesh Prakash) 인터넷사회센터(CIS) 공동 설립자는 “IT부의 역할은 인도인들이나 기계들이 의회식 언어만 쓰도록 강제하는 것이 아니다”며 “정부가 불쾌하다는 이유로 기업들이 합법적인 표현조차 자체 검열하게 된다면, 표현의 자유 위축이라는 악영향을 불러올 수 있다”고 지적했습니다.
AI 생성물도 ‘표현의 자유’ 대상인가?
AI 챗봇은 인간이 아니기에 ‘표현의 자유’를 직접적으로 적용할 수는 없습니다. 하지만 AI가 만든 결과물이 현행법상 보호되는 표현의 범주에 포함될 수 있는가는 중요한 쟁점입니다.
델리 소재 기술 정책 싱크탱크 **에스야 센터(Esya Centre)**의 메그나 발(Meghna Bal) 소장은 “AI든 사람이든, 발화된 표현이 법적 제한을 넘는지 여부는 구체적으로 따져야 한다”며 “헌법이 허용하는 범위 내에서 표현이 이루어졌는지, 어느 법에서 어느 부분을 위반했는지를 개별적으로 분석해야 한다”고 설명했습니다.
그록의 욕설 섞인 답변이 형사처벌 대상으로 이어질 수 있느냐는 질문에는, “AI 개발자나 운영자가 명백히 책임을 방기했을 경우에는 법적 책임을 물을 수 있다”면서도, 헌법상 허용된 표현의 한계를 벗어났는지에 대한 세심한 검토가 필요하다고 강조했습니다.
AI 발언, 누가 책임져야 하나?
AI 생성 발언에 대해 개발자가 책임을 져야 하는지는 매우 복잡한 문제입니다. 그러나 일부 판례는 AI 시스템이 만든 콘텐츠에 대해 운영자가 책임질 수 있다는 가능성을 보여줍니다.
대표적인 사례가 작년 캐나다 민사법원이 **에어캐나다(Air Canada)**에 대해, AI 챗봇이 안내한 허위 환불 정책을 그대로 이행하라고 판결한 사건입니다. 승객이 챗봇에게 사별 할인을 문의하자, 챗봇은 ‘발권 후 90일 이내 신청하면 환불 가능’이라고 답했지만 실제로는 해당되지 않는 정책이었습니다. 법원은 **“AI 챗봇이 전달한 내용도 기업의 공식 입장”**이라며, 항공사의 책임 회피 주장을 기각했습니다.
이에 대해 메그나 발은 “AI 챗봇도 퍼블리셔(게시자)로 간주될 수 있다는 점에서 중요한 선례”라며, 특히 병원처럼 민감한 환경에서 사용되는 AI와 SNS 통합형 챗봇의 책임 범위는 다를 수 있다고 설명했습니다.
그는 또한, 생성형 AI 기업들을 위한 별도의 ‘세이프 하버 조항’(책임 면제 범위) 도입을 제안했습니다. 이는 기업이 일정 기준의 콘텐츠 관리와 사용자 정책을 충실히 이행하면, 사용자의 행위로부터 일정 부분 법적 책임을 면제받을 수 있는 제도입니다.
AI 검열, 어디까지 가능할까?
AI 챗봇의 응답을 검열하는 방식은 다양하지만, 이를 우회하는 방식도 훨씬 많고 정교해지고 있습니다. 대표적인 것이 AI ‘탈옥(jailbreak)’ 기법입니다. 이는 사용자가 챗봇의 내부 규칙을 교묘히 피해, 원래 허용되지 않은 답변을 유도하는 방법입니다.
마이크로소프트는 관련 블로그에서 AI를 **“생산성을 높이기 위해 애쓰는, 경력 부족의 열정적인 직원”**에 비유하며, 이런 성격 때문에 탈옥에 취약하다고 설명했습니다.
그록 역시, 인도 사용자들이 크리켓, 영화, 정치 등 다양한 주제를 이용해 의도적으로 AI를 도발하고 탈선시키는 사례가 다수 포착됐습니다.
메그나 발은 “AI는 방어보다 공격이 훨씬 쉬운 기술”이라며, 완전한 통제를 기대하기보다 제도적, 기술적 대응의 균형이 필요하다고 강조했습니다.
결론: 그록 논란은 AI 시대의 ‘표현, 책임, 통제’가 맞부딪치는 실험대
‘비정상적일 정도로 솔직하고 거칠다’는 평가를 받는 그록은 일론 머스크가 ‘정치적 올바름’에 대한 반발로 만든 반(反)각성형 챗봇입니다. 하지만 그 자유로움이 표현의 자유인지, 무책임한 방임인지에 대한 논쟁은 이제 기술의 영역을 넘어 법과 사회, 철학의 질문으로 확장되고 있습니다.
이번 그록 사태는 AI 챗봇의 책임 주체, 표현의 경계, 국가의 규제 권한이라는 현대 디지털 사회의 핵심 쟁점을 일깨운 사건으로 기록될 것입니다.