본문 바로가기

AI챗봇에 대한 여러 부정적인 생각들

기술적인 이야기/잡다한 기술적인 이야기 2023. 3. 9.
반응형

ChatGPT를 통해 촉발된 AI챗봇이 아직도 화제인 것 같다. AI를 도입하려는 기업들의 주가가 연일 폭등하고 있다. 이런 상황이 개인적으로는 그다지 달갑지만은 않다. 과연 AI챗봇의 등장은 우리 인간들의 삶을 윤택하게 만들 수 있을까?

Gerd Altmann from Pixabay

AI Chatbot

AI챗봇은 채팅 형식으로 사용자에게 글(Text)을 생성해서 보여주는 서비스다. 다만 내용을 창조하는 것은 아니고 학습했던 대용량의 자료들 중 최적의 자료를 찾아 이를 글로 조합하는 것이 특기인 서비스다. 그런데 조합된 내용이 생각보다 수준이 높고 문장이 자연스러워서 화제가 되고 있다. 채팅 형식이기 때문에 대화하는 식으로 사용할 수 있으며 이 과정에서 일시적인 학습을 시키는 것도 가능하다.

AI챗봇을 촉발시킨 ChatGPT는 GPT-3 기술 기반 AI 챗봇이다. GPT(Generative Pre-trained Transformer)는 사전에 학습된 데이터를 기반으로 텍스트나 이미지 등의 무언가를 생성해 내는 용도로 만들어진 AI 알고리즘이다.

가짜 정보

AI가 생성해 낸 정보가 가짜였다는 이야기는 구글의 바드(Bard)로 인해 잘 알려진 이슈다. 하지만 이 이슈는 모든 AI챗봇이 가지고 있는 문제다. 실제로 ChatGPT를 비롯해 마이크로소프트의 Bing에 탑재된 챗봇도 동일하게 상황에 따라 거짓 정보를 양산해 내는 특징을 보여줬다.

이 문제는 사전에 학습된 자료의 신뢰성이 문제였을 수도 있고, 챗봇에 요청한 내용 자체가 거짓을 유도하는 경우도 있어서 원인을 여러 각도로 분석할 수 있다.

확실한 것은 AI가 속일 의도로 가짜 정보를 만들어 낸 것은 아니라는 점이다. 그러나 AI는 사실이나 진실만을 이야기하지는 않는다는 점 또한 생각해야 한다. AI에겐 사실이나 진실이 아닌 알고 있냐 모르고 있냐의 차이만 존재할 뿐이다.

AI의 가치관과 윤리

가짜정보도 문제지만 잘못된 가치관이나 일그러진 윤리관의 정보를 퍼트리면 이건 어떻게 해야 될까? 혐오, 인종차별, 계층 간 차별, 자본 계급 차별 등 여러 차별적인 내용을 생성해 냈다면 그 책임은 누가 져야 하는 것일까? 이런 차별적이거나 혐오적인 정보가 마치 정의인양 퍼지게 된다면 누가 책임을 져야 할까?

앞서 이야기했지만 현재의 AI는 사실이나 진실만을 이야기하지는 않는다. 학습된 내용을 바탕으로 답변을 조합해 낼 뿐이다. 학습된 내용 중에 이런 차별이나 혐오에 관한 내용이 있다면 AI는 이를 어떻게 이해할까?

반응형

콘텐츠 생산자의 입장

어떤 질문에 대해 챗봇이 결과를 다 알려주면 무슨 일이 벌어질까?

챗봇은 계속 언급하지만 학습된 내용을 바탕으로 답변을 조합해 낸다. 그리고 그 학습된 내용은 누군가가 생산한 콘텐츠일 확률이 매우 높다. 챗봇이 계속 최신의 정보를 습득하려면 누군가의 최신 콘텐츠를 지속적으로 학습하는 수밖에 없으니 말이다.

따라서 챗봇이 어떻게 대답하든 엉뚱하게도 콘텐츠 생산자 즉 원저작자에게는 아무런 이득이 없다는 큰 문제가 발생한다. 기존의 검색엔진이라면 직접적인 트래픽으로 이어질 요소이지만 챗봇은 이 트래픽이 사라지게 만들고 결국 콘텐츠 생산자 입장에선 손해를 본다고 볼 수 있다.

만약 챗봇이 생성한 내용물에 대해 원저작자의 저작권과 수익이 인정되지 않으면 추후 법적인 문제가 불거질 것이 뻔하다. 원저작자의 권리가 보호되지 않으면 결국 콘텐츠 생산도 점점 사라지게 되고 챗봇은 최신의 자료를 학습하지 못하는 불우한 꼰대가 될 뿐이다.

그나마 마이크로소프트가 Bing에 탑재한 AI챗봇 등 몇몇 서비스의 경우는 레퍼런스를 알려준다고 한다. 하지만 어차피 레퍼런스를 방문하지 않아도 필요한 내용 대부분을 알려준 상태일 거라 과연 원저작자의 권리가 제대로 지켜질지는 의문이다.

검색엔진 업체의 입장

구글과 같은 검색엔진 업체도 광고 수익으로 먹고사는 회사다. 사용자가 최대한 떠나지 말고 트래픽을 유발해 줘야 실적을 높일 수 있다.

챗봇의 결과물은 단발성으로 끝나고 사용자는 금방 떠나게 될 확률이 높다. 만약 챗봇을 통해 한 번에 원하는 답변을 얻고 떠나게 된다면 검색엔진을 누가 쓸까? 구글에겐 치명적인 이야기다. 한국에선 네이버가 역시나 치명상을 당할 확률이 높다. 다만 마이크로소프트의 빙(Bing)의 경우도 검색엔진 이긴 하지만 점유율이 낮은 상태라 오히려 AI 시장에 진입하긴 유리하다는 특징이 있을 순 있다.

어쨌든 검색엔진이 이런 AI에 밀려 사라지게 되면 또다른 문제가 생긴다. 바로 콘텐츠의 원출처로의 트래픽은 거의 차단된다는 점이다. 검색엔진 없이 다들 AI챗봇으로 정보를 찾게 될 테니 말이다. 그리고 이는 위의 콘텐츠 생상자의 입장에서 거론된 문제로 또 이어진다.

728x90

책임은 누가 지는가

계속 이야기했지만 아직은 답이 없는 문제가 또 있다. 챗봇이 잘못된 정보를 생산했다면 과연 그 책임은 누가 져야 되는 걸까? 저작권 침해에 대한 손해는 누가 배상해야 하는 것일까? 비윤리적인 대답에 대해서는 누가 책임을 져야 되는 걸까?

확실한 것은 AI 자체가 배상의 주체는 아니라는 것이다. 그렇다면 AI를 개발한 업체에 물어야 되나? AI에게 학습시킨 데이터를 정리한 이들에게 책임을 물어야 되나?

그 누구에게도 책임을 묻기엔 미묘한 분위기다. 그렇다면 과연 챗봇 서비스는 제대로 지속될 수 있을까?

AI의 저작권?

AI가 생성한 콘텐츠는 저작물인가 아닌가. 저작권은 누구에게 있는가. 만약 타인에게 저작권이 있는 내용을 일부 조합해서 판매했다면 그 저작권자의 권리를 어떻게 보상해 줄 것인가.

당연하겠지만 AI의 저작권을 인정하기 싫어하는 사람이 많을 것 같다.

최근 미국에선 AI가 생성한 콘텐츠의 저작권은 인정받지 못하는 추세 같다. 사람이 입력한 프롬프트 정도만이 저작권 효력이 인정될 가능성이 높아 보인다.

그렇다 하더라도 법적인 문제는 계속 제기되고 판단될 것이고 정리는 매우 오래 걸릴 것이다.

정리

어쨌든 여러 이야기를 했지만 딱 한 문장으로 정리하자면 "AI의 발전과 사람과의 대립은 정해진 일" 정도일 것 같다. 특히 원저작자의 권리 문제가 개인적으로는 가장 크다고 보고 그다음이 윤리적인 문제와 AI 생성물의 저작권 문제 같다. 가짜정보는 부족한 자료를 학습시키는 것으로 이미 해결이 되어가고 있으니 말이다. 유명한 화두인 "일자리 문제"는 여기서는 다루지 않았지만 누군가에겐 가장 큰 이슈일 것 같지만 말이다.

문제는 그 대립의 해결이 쉬운 일은 아닐 거라는 점 같다. 법의 타협 진행과 함께 현재의 AI 챗봇과 같은 서비스도 과도기 없이는 제대로 서비스하기는 불가능하지 않을까 하는 생각이 든다.

 

AI기업의 주가는 정말 거품인가

요즘 AI 관련주가 랠리를 하면서 AI가 거품이라는 이야기를 종종 접할 수 있는 것 같다. 투자 유의를 알린다는 점에서 좋은 의도일 수는 있겠지만, 간혹 증권사의 작전에 당한 것으로 의심되는 상

seorenn.tistory.com

728x90
반응형

댓글