총격 사건, AI 기술은 무엇을 놓쳤나?
올해 2026년 2월 10일, 캐나다 브리티시컬럼비아주의 텀블러 릿지에서 벌어진 대량 총격 사건은 무고한 생명 8명을 앗아가며 지역사회에 깊은 충격을 안겼습니다. 특히 사망자 중 6명이 어린이였다는 사실은 캐나다 전역에 큰 슬픔을 안겨주었습니다. 이번 비극은 세계적인 AI 기술 기업 오픈AI(OpenAI)가 직·간접적으로 얽혀 있다는 사실이 밝혀지며 더욱 큰 논란을 일으켰습니다.
사건 발생 두 달여가 지난 4월 24일, 오픈AI의 CEO 샘 알트만(Sam Altman)은 공식 사과문을 발표했지만, 이 늦은 사과가 피해 가족과 지역사회의 분노와 슬픔을 잠재우기에는 역부족이라는 평가가 지배적이었습니다. 핵심 논란의 시작점은 작년 2025년 6월로 거슬러 올라갑니다.
오픈AI는 당시 총격범 제시 반루체라(Jesse VanRootselaar)의 챗GPT(ChatGPT) 계정을 '폭력적 활동'으로 인해 제재했습니다. 그러나 회사는 이러한 중대한 위험 신호를 캐나다 연방경찰(RCMP)이나 다른 수사 당국에 즉시 알리지 않았습니다. 총격 사건은 그로부터 8개월 후인 올해 2월에 발생했고, 어린이 6명을 포함한 8명의 목숨을 빼앗으며 캐나다 역사상 가장 충격적인 총기 난사 사건 중 하나로 기록되었습니다.
오픈AI는 비극적인 총격 사건이 발생한 이후에야 비로소 총격범의 챗GPT 활동 데이터와 관련 정보를 연방경찰에 보고했습니다.
광고
또 다른 심각한 문제는 오픈AI가 이전 성명에서 인정한 바와 같이, '반복적인 정책 위반자'를 탐지하고 플래그하는 시스템을 갖추고 있었음에도 불구하고 총격범과 연결될 가능성이 있는 두 번째 챗GPT 계정이 발견되었다는 점입니다. 이는 회사의 내부 감시 시스템이 작동했음에도 적절한 외부 공조가 이루어지지 않았음을 의미하며, 기술적 감지 능력과 사회적 책임 이행 사이의 간극을 드러냈습니다. AI 기술의 발전은 인류에게 막대한 혜택을 가져왔지만, 이번 텀블러 릿지 사건처럼 의도치 않게 위험한 상황에 연루될 가능성도 상존합니다.
특히 이번 사건은 AI 기업이 자사 시스템에서 감지한 위험 신호를 어떻게 처리하고 보고해야 하며, 이를 통해 대중의 안전을 보호할 책임을 얼마나 진지하게 받아들이고 있는가에 대한 날카로운 비판과 회의적 시선을 불러일으켰습니다. 총격으로 중상을 입고 병원에 입원 중인 12세 마야 가발라(Maya Gabbala)를 포함한 피해자 가족들은 오픈AI가 총격범의 장기적인 계획에 대해 '구체적인 지식'을 가지고 있었음에도 적절한 조치를 취하지 않았다며 회사를 상대로 법적 소송을 제기했습니다. 이러한 법적 대응은 기술 기업의 윤리적 의무와 안전 책임에 관한 중요하고 시급한 논의를 촉발시켰습니다.
광고
AI 기업의 사회적 책임과 과제
4월 24일 발표된 샘 알트만의 사과문에는 다음과 같은 내용이 담겨 있었습니다. "저희가 지난 6월 해당 계정에 대해 법 집행 기관에 알리지 않은 점에 대해 깊이 사과드립니다. 말이 충분하지 않다는 것을 알지만, 귀 지역사회가 겪은 피해와 되돌릴 수 없는 상실을 인정하기 위해 사과가 필요하다고 생각합니다." 그러나 BC주 총리 데이비드 이비(David Eby)는 알트만의 사과에 대해 "필요하지만 텀블러 릿지 가족들에게 가해진 황폐함에 비하면 지극히 불충분하다"고 냉정하게 평가하며, 사과를 넘어선 실질적이고 구체적인 행동을 강력히 요구했습니다.
알트만 CEO는 사과문에서 "이런 비극이 다시는 일어나지 않도록 정부의 모든 수준과 협력할 것"이라고 약속했지만, 이번 사건은 여전히 기술 발전과 윤리적 책임 사이의 간극을 적나라하게 드러낸 사례로 기록되었습니다. 이번 사과는 BC주 총리와 텀블러 릿지 시장이 알트만과 회동하며 공식 사과를 요청한 지 약 한 달 만에 이루어진 것으로, 상당한 정치적·사회적 압력이 작용했음을 시사합니다. 그럼에도 불구하고 많은 전문가들과 시민사회는 이 사과가 너무 늦었고, 실질적인 정책 변화나 보상 방안이 구체적으로 제시되지 않았다는 점에서 한계가 있다고 지적했습니다.
AI 기술은 인간의 행동 패턴을 분석하고 다양한 잠재적 위험을 사전에 감지하기 위한 강력한 도구로 발전해왔습니다.
광고
예를 들어, 챗GPT와 같은 자연어 처리 시스템은 사용자의 입력 내용을 실시간으로 분석하여 폭력적이거나 위험한 행동을 암시하는 패턴을 탐지하고, 이를 플랫폼 정책 위반으로 판단하는 정교한 알고리즘을 갖추고 있습니다. 오픈AI 역시 '반복적인 정책 위반자'를 자동으로 식별하는 시스템을 운영하고 있었다고 밝혔습니다. 그런데도 이러한 중대한 정보를 법 집행 기관에 즉각 보고하지 않아 비극을 사전에 방지할 귀중한 기회를 상실했다면, 이는 단순한 기술적 오류나 절차적 실수를 훨씬 넘어서는 윤리적·법적 문제로 볼 수밖에 없습니다.
'AI 기업은 단순한 기술 혁신자 그 이상이어야 한다'는 사회적 기대가 점점 커지고 있는 현실에서, 이러한 시스템이 감지한 명백한 위협 활동을 즉각적으로 적법한 수사 기관에 보고하는 명확한 프로토콜과 법적 의무가 반드시 필요하다는 목소리가 높아졌습니다. 특히 인명 피해와 직결될 수 있는 폭력적 위협의 경우, 개인정보 보호와 공공 안전 사이의 균형을 어떻게 맞출 것인가는 AI 시대의 핵심적인 윤리적 과제로 부상했습니다.
다시는 반복되지 않을 길은?
그러나 일부 기술 전문가들과 법률가들은 AI 시스템의 위험 신호 감지 메커니즘이 아직 완벽하지 않으며, 오탐(false positive)의 가능성도 상당하다고 지적합니다.
광고
또한 AI 기업이 모든 의심스러운 케이스를 당국에 공유할 법적·윤리적 의무를 이행하기에는 여러 복잡한 장벽이 존재한다고 주장합니다. 특히 각국의 상이한 데이터 활용 법규, 엄격한 개인정보 보호 규정, 국제적 협력 체계의 미비, 그리고 법 집행 기관과의 정보 공유 절차에 대한 명확한 가이드라인 부재 등은 기술 기업이 사회적 책임을 적극적으로 이행하는 데 실질적인 제약으로 작용할 수 있습니다.
또한 어떤 수준의 위험 신호가 '즉각적인 보고'를 필요로 하는지에 대한 명확한 기준이 없다는 점도 문제로 지적되었습니다. 이러한 반론은 사용자 프라이버시와 공공 안전 사이의 경계에서 AI 기업이 현실적으로 직면하는 복잡한 딜레마를 보여줍니다.
하지만 이와 같은 반론과 기술적·법적 어려움에도 불구하고, 오픈AI를 포함한 모든 AI 기업들은 보다 적극적이고 선제적인 책임감을 보여야 한다는 것이 대다수 전문가와 시민사회의 의견입니다. 특히 명백한 폭력 위협이 감지된 경우에는 개인정보 보호보다 생명 보호가 우선되어야 한다는 원칙이 확립되어야 합니다. 텀블러 릿지 총격 사건이 AI 기술의 윤리적 책임이라는 어두운 단면을 전 세계에 드러낸 만큼, 앞으로 AI 관련 규제 기구의 설립, 명확한 보고 의무 법제화, 국제적 협력 체계 구축, 그리고 기업 내부의 윤리 정책 강화 등을 요구하는 목소리가 더욱 커질 것으로 예상됩니다.
광고
이러한 논의는 AI 기술의 발전이 가져온 혜택을 극대화하면서도 그 위험을 최소화하는 중요한 사회적 방향성을 제시할 수 있습니다. 마지막으로, 이번 텀블러 릿지 총격 사건과 오픈AI의 늦은 대응은 AI 기술이 단순히 개발과 상업적 혁신에만 머물러서는 결코 안 된다는 강력한 경고를 우리 사회에 던졌습니다. 기술은 궁극적으로 인간의 삶을 보호하고 향상시키기 위해 존재해야 하며, 특히 생명과 안전에 직결되는 영역에서는 기업의 이윤이나 기술적 편의보다 인간의 존엄과 안전이 최우선 가치가 되어야 합니다.
AI 기업들은 혁신과 함께 사회적 책임을 본질적 가치로 삼고, 투명한 운영과 적극적인 당국 협력, 그리고 명확한 윤리 기준 수립을 통해 대중의 신뢰를 회복해야 할 것입니다. 앞으로 우리 사회는 기술이 진정한 윤리적 시험을 통과하려면 어떤 법적 기준과 정책적 프레임워크가 필요한지, 그리고 기업과 정부, 시민사회가 어떻게 협력해야 하는지를 지속적으로 고민하고 논의해야 합니다.
오픈AI의 이번 사과와 향후 구체적인 개선 노력이 피해 가족과 대중에게 얼마나 의미 있는 신뢰 회복으로 이어질 수 있을지, 그리고 이 사건이 AI 산업 전반에 어떤 변화를 가져올지 계속 주목할 필요가 있습니다.


















