면책 조항: 아래 표시된 텍스트는 타사 번역 도구를 사용하여 다른 언어에서 자동 번역되었습니다.
AI는 BS
작성자: 브라이언 D. 와섬
이 글을 쓰는 현재 사회는 생성형 인공지능과의 관계에서 4단계에 접어든 것으로 보입니다. 여전히 열광하지만, 우리의 애정 대상이 전적으로 신뢰할 만한 가치가 있는 것은 아니라는 사실을 인정할 만큼 냉정해지기 시작했습니다. 가장 열렬한 애호가를 제외한 모든 사람들은 인공지능 애플리케이션이 말하는 모든 것을 당연하게 받아들일 수 없다는 사실을 깨닫게 되었습니다. 예를 들어, 현재 가장 사랑받는 ChatGPT는 우리의 질문에 대한 답변으로 사실과 허구를 동등하게 전달합니다. 이러한 공상의 비행에 대한 일반적인 설명은 "환각"으로, 앱이 진정으로 우리에게 정직하기를 원하지만 가끔씩 현실과 정신분열증적인 단절로 인해 의도치 않게 억제된다는 것을 암시하는 의인화된 용어입니다.
이 용어가 ChatGPT가 의도적으로 거짓말을 하고 있지 않다는 것을 전달하는 범위 내에서 충분히 타당합니다. 그러나 "환각"이라는 단어가 앱이 진실을 말하고 있다는 것을 암시하는 한도 내에서 이는 중대한 오해를 불러일으킬 수 있습니다. 물론 인공지능을 1과 0의 복잡한 상호 작용보다 더 개인적인 것처럼 말하는 것은 우리가 가장 먼저 저지르는 실수이며, 그 자체로 허구입니다. 스티븐 호킹의 말을 인용하면 "지능"을 "변화에 적응하는 능력"으로 정의합니다. 이 정의에 따르면 AI 프로그램은 지능적으로 행동합니다. AI가 일반 소프트웨어와 차별화되는 점은 이전의 입력과 작업에서 받은 축적된 피드백에 따라 작동 방식을 조정할 수 있다는 점입니다. 이러한 프로세스를 "머신 러닝" 또는 "딥 러닝"이라고 부르며, 더 발전된 AI 설계를 "신경망"이라고 부르는데, 이 모든 용어는 인간의 마음 작동 방식을 본뜬 것입니다.
하지만 이러한 용어는 정확하다기보다는 비유적인 표현입니다. 소프트웨어에는 마음이 없기 때문에 AI는 인간의 두뇌와 같은 방식으로 "지능적"이 될 수 없습니다. Merriam Webster는 "지능"을 "배우거나 이해하는 능력", "이성의 숙련된 사용", "지식을 적용하거나 추상적으로 사고하는 능력"으로 보다 철저하게 정의합니다. 기계는 이 중 어느 것도 할 수 없습니다. AI 프로그램이 현실과 일치하는 데이터를 생성한다면 이는 인간 코더의 노력의 행복한 결과입니다. 이러한 프로그래머는 물이 원하는 위치로만 흐르도록 복잡한 지하 파이프를 정밀하게 설계하는 토목 엔지니어와 같습니다. 그러나 AI 프로그램은 현실을 파악할 수 있는 능력이 없기 때문에 파이프가 물을 올바르게 전달하고 있다는 것을 아는 것처럼 자신이 진실을 말하고 있다는 것을 알지 못합니다.
적어도 AI는 우리에게 거짓말을 할 수 없다는 사실에 위안을 삼을 수 있습니다. 거짓말쟁이는 진실을 알면서도 듣는 사람이 다른 것을 믿도록 속이는 사람입니다. AI는 진실을 \'알 수\' 없으므로 거짓말을 할 수 없습니다.
그러나 엄밀히 말하면 "환각"도 할 수 없습니다. 환각은 여전히 현실을 인식하는 것이지만 실제 현실이 아닐 뿐입니다. 따라서 피할 수 없는 것처럼 보이지만 AI를 의인화된 용어로 계속 이야기하려면 적어도 더 정확하게 표현해야 합니다. 소프트웨어가 어떻게 작동하는지에 대한 잘못된 이해는 소프트웨어가 우리를 위해 무엇을 하는지를 오해하게 만들고, 따라서 그 한계와 진정한 잠재적 유용성을 모두 놓칠 수 있습니다. 이를 위해 저는 제너레이티브 AI 프로그램의 결과물을 설명하는 가장 정확한 방법은 "BS"라는 약어를 사용하는 것이라고 제안합니다.
진심입니다. 현재 94세인 미국 철학자 해리 G. 프랑크푸르트는 2005년 가장 인기 있는 저서에서 자주 사용되지만 잘 이해되지 않는 이 용어를 정의하기 시작했습니다. 이 책의 제목은 \' 헛소리\'로, "[BS]의 본질은 거짓이 아니라 가짜라는 것"이라고 주장합니다. 적극적으로 "현실에 대한 올바른 인식에서 우리를 멀어지게 하려는" 거짓말쟁이와 달리, BS 작가는 "자신이 말하는 것이 현실을 정확하게 묘사하는지 여부는 신경 쓰지 않습니다. 그는 그저 자신의 목적에 맞게 말을 골라내거나 지어낼 뿐입니다."
이것이 ChatGPT와 우리와의 대화를 설명할 수 있는 가장 가까운 표현입니다. 챗봇과 인간 BS 아티스트의 유일한 차이점은 사람이 의도적으로 한다는 점입니다. AI는 의도가 없습니다. 하지만 이는 설명에 힘을 실어줍니다. 프랑크푸르트는 "[BS]는 누군가가 자신이 무슨 말을 하는지 모른 채 대화해야 하는 상황에서는 피할 수 없는 존재입니다."라고 말합니다. ChatGPT는 자신이 무엇을 말하는지 알 수 없기 때문에 BS 이외의 다른 말을 할 수 없습니다.
이는 챗봇의 맥락에서 가장 쉽게 알 수 있지만, 동일한 원리가 모든 AI 표현에 적용됩니다. 다른 AI 프로그램은 불완전한 데이터에서 도출된 부정확한 결론을 바탕으로 의료 치료 권장 사항을 제시하는 것으로 알려져 있습니다. 또는 사전 차별에 의해 왜곡된 데이터 세트를 기반으로 고용 결정을 내리기도 합니다. 또는 유색인종 얼굴을 백인 얼굴보다 더 잘 판독하지 못하는 얼굴 인식 데이터를 기반으로 범죄 용의자를 식별할 수 있습니다. 또는 무고한 문자 메시지를 수치스러운 실수로 바꿔버리는 단어 자동 수정 기능도 있습니다.
이러한 결과는 피할 수 없는 것이 아니며 프로그램 자체의 결함도 아닙니다. AI 출력의 부정확성은 인간이 더 정교한 코드를 구현하여 물이 의도한 곳으로만 흐르고 다른 곳으로 흐르지 않도록 함으로써 줄일 수 있으며, 종종 줄일 수 있습니다. 즉, 가장 진보된 많은 AI 프로그램에서 경이로움과 걱정의 대부분은 인간 작성자가 어떻게 작동하는지 모른다는 점입니다. AI 자체는 오랫동안 자체 코드를 수없이 재작성해 왔기 때문에 그 기능을 만든 사람조차도 이해할 수 없습니다. BS가 낳은 BS.
그렇다고 해서 AI 애플리케이션을 계속 개발하고 사용해서는 안 된다는 말은 아닙니다. 오히려 유용하고 윤리적인 AI 구현을 개발하는 뛰어난 사람들이 있습니다. 이러한 발명이 신뢰할 수 있는 조언자가 아니라 특정 목적을 위해 만들어진 도구로 남아 있는 한, 그러한 발명의 힘과 유용성은 부정할 수 없습니다. AI 솔루션은 프로그램의 최종 결과물이 (사람이 주도하는 검토와 수정을 거쳐) 의도한 목적에 유용할 만큼 현실과 충분히 연관될 수 있도록 충분히 제한적인 가드레일 내에서 구현되어야 합니다. 허용되는 매개변수는 상황에 따라 달라집니다. ChatGPT를 사용하여 회의를 흥미롭게 만드는 방법을 브레인스토밍하거나, Midjourney를 사용하여 놀랍고 영감을 주는 이미지를 렌더링할 때처럼, 때로는 약간의 엉뚱함이 좋은 결과를 가져올 수 있습니다.
그러나 거의 모든 경제 부문에서 한꺼번에 AI가 도입되는 빠른 속도와 영업사원과 중간 관리자들이 이러한 앱의 잠재력에 대해 숨을 죽이며 경외감을 표하는 것은 여전히 심각한 우려의 원인이 되고 있습니다. 우리 사회 의식의 일부가 AI를 신뢰하는 것보다 더 잘 알고 있다고 해도, 여전히 너무 많은 사람들이 AI의 달콤한 말에 현혹되고 있습니다.
AI 기반 도구는 인간의 의사결정에 정보를 제공하고 지원하는 점점 더 광범위한 애플리케이션에 유용하게 사용될 것이지만, 항상 독립적인 판단력을 발휘하는 사람이 사용해야 합니다. "[BS 아티스트]는 ... 거짓말쟁이처럼 진실의 권위를 거부하지 않습니다. ..... 그는 그것에 전혀 관심을 기울이지 않습니다. 이 때문에 [BS]는 거짓말보다 더 큰 진실의 적입니다."라고 프랑크푸르트는 경고했습니다. 우리 자신이나 기업이 진실의 원천으로 제너레이티브 AI에 무비판적으로 의존하는 것을 허용하는 한, 우리는 후회하게 될 것입니다.