인공지능(AI)은 정말 인류를 위협하게 될까?

현대 사회에서 인공지능(AI)에 대한 관심은 말하기도 새삼스럽지만 그 어느 때보다 뜨겁습니다. 이처럼 높아진 관심은 인공지능 기술이 우리 삶의 다양한 영역에서 혁신을 가져올 가능성을 상징합니다. 그러나 이러한 기술의 미래에 대한 예측은 여전히 불확실성에 둘러싸여 있습니다.

이 불확실성은 주성치가 주연한 영화 ‘007 북경 특급’에서 등장하는 청개구리 총에 비유해 볼 수 있습니다. 이 총은 예측 불가능한 특성을 지니고 있어, 방아쇠를 당길 때마다 총알이 어느 방향으로 발사될지 알 수 없는 어이없는 무기입니다. 총이 제대로 작동할 경우에는 도움이 되지만, 그렇지 않을 경우에는 오히려 사용자에게 해를 끼칠 수 있습니다.

오히려 쏘는 사람에게 해를 입히는 청개구리 총(출처 : https://youtu.be/LNKp0MZdS8U)

제 생각엔 지금 단계의 인공지능도 이와 유사한 모습을 보이고 있는 것 같습니다. 현재 인공지능은 초기 단계에 있으며, 많은 사람들이 이 기술에 대해 관대한 태도를 보이고 있습니다. 그러나 인공지능이 향후 인류, 기업, 개인에게 어떤 결과를 가져올지는 아직 명확하게 예측할 수 있는 이는 없습니다. 심지어 인공지능 분야의 선두주자인 OpenAI나 마이크로소프트(Microsoft)조차도 이 기술의 미래를 정확히 예측하기는 어려울 겁니다.

가짜 뉴스 또는 불신

인공지능(AI)은 이미 창의적인 작업에서 놀라운 도구로 자리잡았습니다. 일러스트 제작이나 소설 초안 작성과 같은 창의적인 작업에서는 인간의 노력을 상당히 경감시킬 수 있습니다. 이러한 환경에서는 AI가 생성하는 환각 현상이 비교적 무해하며, 오히려 이러한 창의성이 유용하게 활용될 수 있습니다.

하지만 정보의 정확성이 중요한 영역에서라면 오히려 AI의 환각 현상은 심각한 문제를 일으킬 수 있습니다. 예를 들어, 검색 서비스, 정보 제공, 코딩 보조와 같이 정밀성과 사실성이 요구되는 분야에서 AI가 잘못된 정보를 제공한다면, 그 결과는 치명적일 수 있습니다. 우리는 과연 AI가 생성한 코드로만 작동하는 비행기를 안심하고 탈 수 있을까요?

개인적인 차원에서는 AI의 환각이 빚어낸 가짜 뉴스의 문제가 더욱 심각해질 수 있습니다. AI가 생성한 정보를 사실과 대조할 수 있는 능력이 없을 경우, 악의적인 선동이나 단순한 오류로 인해 잘못된 정보가 확산되고 사람들이 그것을 믿게 될 수도 있겠죠.

반대로, 정보를 비판적으로 분석하고 걸러내는 능력이 있는 사람들에게는 AI에 대한 불신으로 이어질 수 있습니다. 이렇게 되면 AI에 대한 관대함은 끝나고 규제의 필요성이 대두되고, AI의 활용 범위는 제한적인 영역으로 축소될 겁니다.

청개구리 총 이야기

다시 청개구리 총 이야기로 돌아가보겠습니다. 청개구리 총의 예는 인공지능의 예측 불가능성을 잘 보여줍니다. 어디로 발사 될지 모르는 상황에서 적을 물리칠 수도 있고 오히려 나한테 해를 입힐 수도 있죠.

가끔 제대로 나가기도 하는 청개구리총(출처 : https://youtu.be/LNKp0MZdS8U)

ChatGPT도 이와 유사합니다. 의미가 같은 프롬프트를 조금 다르게 요청해도 결과가 완전히 달라지는 것을 심심치 않게 볼 수 있죠. 심지어 똑같은 프롬프트를 써도 결과가 약간씩 달라집니다. 또한 언제 어떤 요청에 환각 현상이 나타날지도 알 수 없습니다.

청개구리 총을 의도대로 제어하려면, 발사되는 부품을 조정하거나 안전 장치를 설치해서 원하는 방향으로만 발사되도록 해야 합니다. 이는 AI에도 적용될 수 있습니다. 즉, AI가 예상치 못한 결과를 내놓지 않도록, 원인을 제거하거나 안전 장치를 마련해야 합니다.

그러나 현재 기술로는 AI가 생성하는 ‘환각’과 같은 예측 불가능한 결과의 원인을 완전히 파악하고 제거하는 것이 어렵습니다. 결과물을 예측하기 어려운 상황에서, 인공지능의 환각을 최소화하거나 제어하기 위해서는 결국 사람의 개입이 필요합니다. 현재의 기술로는 인공지능의 결과물을 완벽하게 제어할 수 없기 때문입니다.

결국에 필요한건 “인간”

결국, AI를 안전하게 사용하기 위한 가장 확실한 안전장치는 바로 인간입니다. AI가 제공하는 결과물을 검토하고, 필요한 경우 조정하여, 기술이 인간의 의도와 일치하도록 보장하는 역할을 인간이 해야 합니다. 현재의 기술로는 어떤 알고리즘도 AI의 결과물을 완벽하게 통제할 수 없기 때문에, 인간의 감독과 개입이 필수적입니다.

인공지능(AI)의 발전은 많은 분야에서 혁신적인 변화를 가져왔지만, 그 결과물에 대한 최종 책임은 여전히 인간에게 있습니다. AI가 아무리 진화하여 강 인공지능(AGI)의 단계에 이르더라도, 이러한 점은 변하지 않을 것 같습니다.

마이크로소프트(Microsoft)와 OpenAI도 이러한 현실을 잘 인지하고 있습니다. 특히 마이크로소프트가 AI 기반 도구를 ‘AutoPilot’이 아니라 ‘Copilot’으로 명명했다는 것은 이러한 인식의 반영이라고 생각합니다. ‘Auto Pilot’은 모든 것을 자율적으로 실행하는 인상을 주지만, ‘Copilot’은 보조자(Companion) 역할을 강조하는 이름입니다. 즉 AI를 사용하는 최종적인 책임은 사용자, 즉 인간에게 있음을 보여주는 것이죠.

건전한 회의주의

인공지능(AI) 기술의 사용과 통합에 있어 필요한 시각 중 하나는 건전한 회의주의입니다. 이 개념을 이해하기 위해, 대중문화 속 배트맨과 슈퍼맨의 이야기를 빗대어 생각해 볼 수 있습니다.

슈퍼맨의 앙숙인 렉스 루터는 슈퍼맨의 잠재적 위험성을 강조하며, 그의 능력을 무조건적으로 제한하고 무력화하려고 했습니다. 반면, 배트맨은 슈퍼맨의 위험성을 인식하면서도 그의 선의를 신뢰하고, 동시에 필요한 경우 슈퍼맨을 견제할 수 있는 준비를 갖추고 있었죠.

렉스 루터처럼 슈퍼맨(AI)이라는 힘을 무서워하면서 두려워하고 이를 무조건 규제하고 배척할 수도 있습니다. 하지만 배트맨이 슈퍼맨에게 보이는 “건전한 회의주의”는 AI의 잠재력을 인정하면서도, 그로 인한 위험을 관리하려는 태도입니다. 어쩌면 AI 시대를 살아가는 인간에게 가장 필요한 시각일지도 모르겠습니다.

건전한 회의주의를 위해서는 AI에 대한 충분한 이해와 비판적인 지식이 필요합니다. ChatGPT가 처음 나왔을 때, 사람들은 전통적인 지식 습득은 필요없다고 생각했지만 오히려 AI 시대일 수록 이러한 지식은 더욱 중요해지고 있습니다. 전통적인 지식 습득 과정이 있어야 잘못된 정보와 오해를 식별할 수 있고 나아가 AI의 능력과 한계를 정확히 파악할 수 있기 때문이죠. 마치 배트맨처럼요.

마무리

지금과 달리 미래의 사람들은 더 이상 인공지능에 관대하지 않을 것입니다. 청개구리 총에 안전장치를 추가하는 것과 같이, 인공지능에도 필요한 안전 조치를 적용하고자 할 것입니다. 그런 미래가 되면 비판적인 적절한 지식과 “건전한 회의주의”를 가진 인간의 개입은 AI가 인류를 보조하는데 필수적인 부분이 될 겁니다.

마치 지금 제가 쓰고 있는 이 글처럼 말이죠. 이 글은 제가 개요를 작성했지만 GPT-4가 90%를 작성했습니다. 내용이 본질에서 벗어나지 않도록 저는 글을 다듬고, 의도가 더 분명하게 드러나도록 구성을 조정하는 작업을 했습니다. 이 과정을 통해 글 작성 시간을 대폭 단축할 수 있었습니다. GPT-4는 문장 구성과 다듬기에 있어서 때때로 저보다 더 명확한 표현을 제시했습니다. 물론, 글의 완성도를 높이고 의도를 선명하게 하기 위한 마지막 10%의 다듬기 작업은 저의 몫이었습니다. 이러한 과정은 제가 관련 지식을 갖추고 있지 않았다면 실행하기 어려웠겠죠.

“건전한 회의주의”를 가진 인간이 AI를 만들고, 또 AI가 만들어낸 결과물을 감수하고 개입한다면, AI는 어디까지나 유용한 인류의 도구로서 남을 겁니다. 하지만 그런 과정이 잘 동작하지 않는다면 AI는 인류를 위협하게 될겁니다. 아니, 정확히는 AI 뒤에 있는 또 다른 인간들이 인류를 위협하게 되겠죠.