‘AI 기본법’의 내년 1월 본격 시행을 앞두고 목회 현장의 AI 활용에 대한 구체적인 지침이나 대응 방안이 없어 혼란이 가중되고 있다. ‘AI 기본법’은 인공지능(AI) 기술의 윤리적 위험에 대응하기 위해 제정된 법으로 생성형 AI 결과물에 대한 식별 표시 의무화 등 법적 규제가 현실화된 만큼 이를 활용하는 목회 현장의 대응과 변화 또한 불가피한 실정이다.
지난해 12월 26일 국회 본회의를 통과한 ‘AI 기본법’의 방향은 투명성 확보를 통한 신뢰 사회 구현에 있다. 기술의 불투명성이 초래할 수 있는 사회적 혼란을 사전에 차단하고 이용자가 기술을 신뢰하며 사용할 수 있는 환경을 마련하겠다는 취지다.
AI 활용에 있어 특히 주의가 필요한 부분은 생성형 AI로 제작된 음향·이미지·영상 등 모든 결과물에 대해 앞으로 ‘AI 생성 사실’을 명확히 표시해야 한다는 점이다. 딥페이크 등 기술 오남용을 방지하고 이용자의 알 권리를 보장하기 위함인데 AI 관련 사업자는 물론이고 한국교회도 남의 얘기로 흘려들어선 안 될 것이다. 목회 현장에 활용되는 AI 결과물에 대해서도 ‘AI 생성 사실’ 표시 등 법적·윤리적 점검을 할 필요가 있기 때문이다.
‘AI 기본법’ 시행령은 “AI 기반으로 제작·수행된 사실을 이용자에게 사전에 고지해야 한다”고 명시돼 있다. 따라서 교회 목회 행정 어딘가에 AI가 활용됐다면 반드시 이에 한 점검과 정비를 해야 할 것이다.
목회 현장에서 AI 사용 결과물 표시가 의무화된 분야는 설교문, 교육자료, 홍보물 등이다. 이 외에도 교회가 제작하는 콘텐츠에 AI가 관여했다면, 반드시 'AI 생성 사실'과 출처를 명확히 표시하는 게 좋다. 표시 의무 위반 시에는 최대 3천만 원 이하의 과태료를 부과될 수 있기 때문이다.
‘AI 기본법’의 범주에 목회와 행정 전반이 포함될 것인가에 대해선 전문가들조차 명확한 답변을 내놓지 못하고 있다. 이 법이 기본적으로 ‘인공지능 사업자’를 대상으로 하고 있기 때문에 교회가 그 범주에 포함될지가 관건이다. 교회는 개인 이용자에 더 가깝지만, 향후 공식적으로 AI 상담 서비스나 AI를 기반으로 한 사역을 제공하게 되면 ‘사업자’로 볼 가능성을 완전히 배제할 수 없다.
하지만 교회와 목회자가 수행하는 목회 행정 분야가 ‘AI 기본법’에 저촉을 받을 것인가 제외될 것인가는 부차적인 문제다. 법 위반 여부에 상관없이 교회가 제작·배포하는 콘텐츠에서 AI가 사용된 경우 ‘AI 생성’ 표시를 하는 게 투명성 차원에서 맞다. AI 라벨링의 취지가 ‘비인간화 방지’에 있고 AI 윤리의 기본인 만큼 법적 강제 이전이라도 건강한 AI 윤리를 위해 교회가 자율적으로 표기 문화 정착을 위해 노력하는 게 바람직하다.
전문가들도 인공지능은 쳇 GPT 기반 이미지처럼 표기 없이 생성되는 경우가 많기 때문에 어디서 어떻게 생성된 콘텐츠인지 투명하게 공개할 것을 권장하고 있다. 교회가 ‘치외법권 지대’든 아니든 상관없이 출처와 생성 과정, 사용 범위를 투명하게 관리할 필요가 있다고 조언한다.
그런데 한국교회가 세심히 살펴야 할 게 단지 위법성에 따른 처벌에만 있진 않을 것이다. AI 활용이 일상화된 목회 현장에서, 기술 의존이 교회의 본질과 신학적 정체성을 흐리지 않도록 목회자의 신중한 판단과 윤리적 기준이 더욱 강조되는 시점이다.
예장 통합은 지난 2024년 9월 총회에서 한국교회 교단으로서는 최초로 '인공지능(AI) 시대 목회자 윤리 선언'을 채택했다. 이 선언은 인공지능의 발전이 인간 능력의 쇠퇴로 이어지지 않도록 하고, 인간의 자유·자율성·민주주의를 훼손하지 않도록 교단과 목회자에게 윤리적 통제를 강조하고 있다.
한국 교계에서 인공지능의 윤리적 문제에 대해 공식적으로 선언한 첫 사례인 이 선언은 AI에 대한 사회적·교회적 책임의 중요성을 환기시킨 데서 의의를 찾을 수 있을 수 있을 것이다. 인공지능이 교회의 사역과 설교에 긍정적으로 활용될 수 있지만, 그 한계와 위험성, 즉 인공지능은 인간이 아니며, 인간에 의해 통제되고 인간을 위한 존재라는 걸 인식해야 한다는 데 강조점이 있다.
하지만 교단 총회가 발표한 ‘AI 윤리 선언’이 교단 산하 교회의 실제 목회 현장에서 제대로 지켜지는지에 대해선 확답이 어렵다. 오히려 AI 활용도가 점점 커지는 목회 현장에서 기본적인 윤리지침만으론 한계가 있다는 지적이 나오는 실정이다. 따라서 목회 현장에서의 혼선을 줄이기 위해 보다 구체적인 운영 기준과 절차를 마련하는 등의 후속 조치가 반드시 뒤따라야 할 것이다.
인공지능은 인간의 지적·정신적·도덕적·영적 능력을 대체하는 수단이 아니라 어디까지 보완하는 도구로 활용되어야 마땅하다. 그런 점에서 목회자는 인공지능이 제공하는 지식과 정보의 진위 여부를 분별할 능력을 갖추는 건 물론이고 교회 내에서의 오용을 방지하는 역할까지 수행해야 할 것이다.
내년 1월부터 시행되는 'AI 기본법'에 한국교회가 미리 겁먹을 필요는 없을 것이다. 다만 생성형 AI 결과물에 대한 식별 표시 의무화 등 법적 규제가 현실화된 만큼 변화에 대응하는 능동적인 자세가 요구된다. 이와 함께 예장 통합 외에 별다른 지침이 없는 교단들은 AI 활용에 대한 가이드라인을 제시하고, 기준을 확립하는 방안을 서둘러야 할 것이다. 그래야 AI로 인한 목회 현장의 혼란을 최소화할 수 있다.