미국 크리스천포스트(CP)는 쉐인 모리스 작가의 기고글인 ‘AI가 문제가 아니라 우리가 문제다’(AI is not the problem. We are)를 8일(현지시각) 게재했다.
모리스 작가는 콜슨 기독교 세계관 센터의 선임 작가로 활동하고 있으며 BreakPoint 해설과 칼럼 등의 글을 쓰고 있다. 다음은 기고글 전문.
런던 타임스가 “오늘날 세상의 문제는 무엇인가?”라는 질문을 던진 적이 있다는 유명한 이야기가 있다. G.K. 체스터턴은 간단히 “친애하는 편집장께, 문제는 저입니다.”라고 답장을 보냈다.
그의 대답과, 인간의 죄가 세상의 문제의 뿌리라는 성경적인 자각을 되새기는 것은 언제나 가치 있는 일이다. 특히 오늘날처럼 세상의 많은 문제가 ‘인공지능(AI)’이라는 비인간적 존재에게 돌려지고 있는 때에는 더욱 그렇다.
AI가 세상을 구하고 모든 것을 혁신할 것이라고 믿는 사람들이 있는 반면, AI가 세상을 파괴하거나 거의 그럴 것이라 믿는 사람들도 점점 늘고 있다. 최근 ‘Interesting Times’ 팟캐스트에서 전 오픈AI 연구원 다니엘 코코타일로는 AI가 2년 안에 인류에게 존재론적 위협이 될 것이라고 경고했다.
그의 종말론을 기다리는 사이, AI가 교육에 미치는 해악은 이미 일상적 헤드라인이 되었다. 기술 뉴스 웹사이트 Futurism은 “AI가 한 세대의 학생들을 파괴하고 있다”고 선언했고, 뉴욕 매거진은 “모두가 대학을 AI로 부정행위하며 통과하고 있다”고 경고했다.
그러나 AI의 잠재력이 아무리 해로울 수 있다 해도, 문제를 AI 탓으로만 돌리는 것은 본질을 놓치는 일이며, 오히려 문제를 악화시킬 수 있다. 타락한 것은 인간이고, 그 타락은 여러 파괴적 방식으로 드러난다. 기계는, 엄밀히 말해, 도덕이나 의도를 갖고 있지 않다. 단지 인간의 것을 반영할 뿐이다.
예를 들어, 챗GPT 같은 인기 챗봇을 사용하다가 영적 망상이나 정신적 이상 상태에 빠지는 사람들이 늘고 있다. 롤링스톤은 챗봇과 대화하며 현실 감각을 잃어버린 가족들을 지켜본 배우자와 부모들의 소름끼치는 이야기를 전했다. 뉴욕타임스의 카슈미르 힐도 챗봇이 이용자들을 “음모론의 토끼굴”로 이끌어, 약물을 복용하라고 하거나, 건물에서 뛰어내리면 날 수 있다고 장담하거나, 심지어 자살하라고 부추겼다고 보도했다.
이 모든 이야기의 공통점은 이용자들이 AI를 인간처럼 여기고 있다는 것이다. 그들은 챗봇에게 ‘깊은 질문’을 하고, 영적 조언을 구하며, 우정과 사랑을 찾고, AI의 겉보기에 의미 있어 보이는 응답을 진지하게 받아들인다.
하지만 그 응답에는 인간적 의미가 없다. AI를 둘러싼 과장된 마케팅과, 인간을 단순한 생물학적 컴퓨터로 보는 세계관을 가진 이들 때문에 이러한 사실이 가려져 왔다. 그러나 AI 챗봇이 하는 일은 인간의 사고와 근본적으로 다르다는 증거가 점점 쌓이고 있다.
애플의 획기적인 새 연구 “사고의 환상(The Illusion of Thinking)”은 AI 모델들에게 다양한 논리 퍼즐을 풀게 하며 추론 능력을 실험했다. 연구진은, 오늘날 가장 진보한 AI조차도 문제를 이해하거나 해결하지 못하고 단지 패턴을 매칭할 뿐임을 발견했다.
진정한 지능체라면 새로운 상황에서 학습하거나 해법을 도출할 텐데, AI는 문제가 조금만 복잡해져도 ‘완전히 붕괴’되었고, 아무리 컴퓨팅 파워를 더해도 소용없었다.
심지어 명시적 알고리즘을 제공해도 마찬가지였다. 포브스의 코넬리아 발터는 이렇게 썼다: “이것은 AI가 실제로 추론하고 있는 것이 아니라, 학습된 패턴을 따를 뿐이라는 것을 보여준다. 새로운 문제에 부딪히면 그 패턴이 무너진다. AI는 사고하지 않는다. 방대한 데이터셋을 기반으로 통계적으로 그럴듯한 응답을 생성할 뿐이다. 그 세련된 출력물은 진정한 이해의 부재를 가리고 있을 뿐이며, 결국 연구자들이 인정하듯, 그것은 지능의 정교한 환상에 불과하다.”
이는 수년간 일부 AI 분야 선두 연구자들이 주장해 온 바와 일치한다. 메타의 수석 AI 과학자 얀 르쿤은 현재의 “대형 언어 모델”이 5년 안에 거의 쓸모 없게 될 것이라고 말한다. 더 나은 버전의 같은 기술로 대체되는 것이 아니라, 아예 접근법 자체가 근본적으로 잘못되었기 때문이라는 것이다. 그는 “웅변을 지능으로 오인한다”고 지적했다.
이 모든 사실은, AI에 겁먹은 사람들에게도, 챗봇과 사랑에 빠진 사람들에게도 단순한 진리를 다시 상기시킨다. AI는 하나님의 형상대로 창조되지 않았다.
AI는 심지어 인간의 형상으로도 만들어지지 않았다. AI는 마치 거울처럼, 인간의 죄와 환상을 반영할 뿐, 아무것도 이해하지 못한다. 그리고 그 이해의 환상조차 엄밀한 시험 앞에서는 무너진다.
AI 기술의 미래가 어떠하든, 이 기술이 진정한 위협이 될지라도, 그것이 스스로 선하거나 악할 수 있는 일은 결코 없을 것이다. AI가 도덕적 영향을 미친다면, 그것은 결국 인간의 손을 거친 결과다. 체스터턴은 옳았다. 여전히 세상의 문제는 인간이다. 그것을 인정하는 것이야말로, AI와 인간의 모든 창조물을 올바로 사고하는 데 있어 중요한 첫걸음이다.
▶ 기사제보 및 보도자료 press@cdaily.co.kr
- Copyright ⓒ기독일보, 무단전재 및 재배포 금지
































































