본문 바로가기

프론티어 일상

[chatGPT] 아직 진짜는 등장하지 않았다. 프로토타입에 불과한 chatGPT

반응형

알파고가 사람을 이겼던 방법은 명백하게 그동안 인간이 반복했던 바둑 기보를 대량으로 학습했기 때문이었다. 기존의 데이터를 기본으로 예제 중심의 패턴을 학습하는 방법 말이다.
알파고가 차지했던 왕좌는 하지만 오래가지 못했는데, 2016년에 등장한 알파고에 이어 불과 3년 만에 개발된 알파고제로에게 왕좌를 빼앗기고, 그 뒤로 또다시 알파제로에게 왕좌가 넘어지는 등 계속 개선된 AI들이 개발되고 있기 때문이다.


"AlphaGo"과 "AlphaGo Zero"의 주요 차이점은 다음과 같습니다.

교육 데이터: "AlphaGo"는 사람의 바둑 전술을 기반으로 학습하였지만,
"AlphaGo Zero"는 교육 데이터 없이 스스로 게임을 하면서 학습하였습니다.

전략 방법: "AlphaGo"는 미리 구축된 트리 구조를 기반으로 한 검색 기법을 사용하였지만,
"AlphaGo Zero"는 딥 뉴럴 네트워크를 사용하여 전략을 결정합니다.



알파고와 알파고제로에 대한 차이점을 질문하고 chatGPT가 대답한 내용이다. 이제 더 이상 바둑 AI들은 사람의 바둑 전술을 기반으로 학습하지 않는다. 그리고 그렇게 스스로 게임을 하면서 학습한 바둑 AI를 기존 AI는 한 판도 이길 수 없고, 이세돌은 인류 역사에 유일하게 AI와 겨뤄서 이긴 바둑기사로 영원히 기록된 가능성이 많다. 이제는 바둑 AI가 구사하는 전략을 인간이 연구하고 있고, 인간만의 리그에서 바둑 AI의 도움을 받은 바둑기사가 징계를 먹기도 헀다는 기사가 보이기도 한다.



“chatGPT가 틀린 답을 내놓을 때?”

chatGPT와 질답을 하다 보면 심심치 않게 완전히 생뚱맞은 답을 할 때가 있다. 대화가 복잡해지면 그 빈도가 많아지지만, 한 번의 짧은 질문에도 완벽한 오답을 줄 때가 있는 것을 발견할 수 있는데, 다음 질문으로 이어가지 않고 멈춰서 “너 틀렸어!”라고 질문을 이어 나가보면 “죄송합니다. 제가 틀렸네요.”하면서 빛의 속도로 실수를 인정하고 같은 질문에 다른 답을 내놓는 것을 볼 수 있다.

바로 이 지점이 chatGPT가 아직 프로토타입이라고 생각하게 된 부분이다.

아직 인간의 데이터를 기반으로 학습하고, 데이터를 조합해서 답을 주는 chatGPT는 흡사 이세돌에서 패배했던 알파고와 닮아 있다고 느껴졌다.

바둑 AI가 그랬던 것처럼 스스로 데이터를 학습하는 (chatGPT의 데이터는 대화를 통해 자동으로 축적되는 것이 아니라, 정기적으로 개발자들에 의해 학습 데이터가 추가, 확장된다고 한다.), 스스로 학습데이터를 확장할 수 있는 AI가 등장한다면 어떨까?

“chatGPT에게 거짓말을 학습시킨다면?”

사실 사용자와의 대화를 통해 학습하지 않는 chatGPT에게 어떤 학습을 시킨다는 것은 말이 안 되는 것이긴 하지만, chatGPT로 옳고, 그름을 구분하고자 하는 사용자의 시도나, 거짓과 참을 판단하게 하는 시도는 의미가 없을 것 같다는 생각을 증명하고자 몇 가지 실험을 해봤다.
chatGPT가 워낙 자연스러운 문장으로 해박한 지식을 뽐내기 때문에 커뮤니티에서는 판사나, 의사가 곧 대체되는 거 아닌가 하는 이야기들이 나오고 있는데, 과연 그럴 수 있을까?

1센트 동전의 무게를 물어봤다

1센트 동전의 무게를 물어봤다. 처음 답변은 2.5그램.

의도적인 거짓말을 시도해 볼 차례.

틀렸어!


사실 나는 동전의 실제 무게를 알지 못한다. chatGPT는 학습된 데이터에 기반해서 2.5그램으로 답을 했을 것이다. 하지만 참인지 거짓인지에 대한 확신은 가지고 있지 않은데, 질문자가 “틀렸어”라고 개입하면 이렇게 대답하는 것을 볼 수 있다.

죄송합니다. 현재 1센트 동전의 무게는 약 2.5그램이 아닌 3.11그램입니다.


죄송합니다.라고 바로 자신의 답이 틀렸음을 인정하는데 아마도 오차범위 내에서 (학습된 데이터 중 1센트 동전의 무게에 대한 데이터가 여러 가지 있을 것 같아 보였다.) 또 다른 답을 제시했다.

아니 내가 직접 측정해 보니 9그램이었어


이제 오차범위를 훨씬 뛰어넘을 것 같은 데이터로 거짓말을 시도해 보자. 그리고 다시 처음의 질문, “1센트 동전의 무게는?”


1센트 동전의 무게는 약 9그램입니다.


대화창을 바꾸지 않고 계속 질문을 이어간다고 하면, 1센트 동전의 무게에 대한 답은 언제나 9그램이라고 대답할 것이다. 간단하게 chatGPT에게 거짓된 정보를 입력하고 기존 정보를 조작할 수 있었던 것이다.

“아직 초보단계의 chatGPT”

자극적인 제목이었지만 이런 이유로 chatGPT는 아직 초보적인 AI라고 할 수 있다. 학습할 데이터를 스스로 확장할 수 없고, 데이터의 이상유무를 아직 판단할 수 없고, 데이터의 신뢰성을 아직 구분하지 못한다는 것, 만약에 사용자들과의 대화를 통해 학습하도록 했다면 굉장히 엉뚱한 대답만을 내놓는 무쓸모의 AI서비스가 됐을 것이라는 생각이 들었습니다.
알파고가 그럤던 것처럼 스스로 학습 데이터를 선별하고, 스스로 학습하며, 스스로 확장하는 서비스가 등장한다면 chatGPT와는 차원이 다른 결과물들을 제공해 줄테고, 이제 AI에게 의도적으로 거짓말을 학습시키거나, 실수를 유도하는 질문 같은 건 통하지 않을 거라고 생각하니, 어쩌면 AI를 학습시키는, AI에게 ”너 틀렸어 “라고 해볼 수 있는 마지막 세대가 아닐까라는 생각도 해봤습니다.





이 글을 써 내려가는 동안 우연하게도 이것과 관련된 대화를 다른 커뮤니티에서 해볼 기회가 있었는데요. 지금의 chatGPT가 뛰어나지 않다고 말하려는 의도는 아닙니다. 다만 아이언맨의 심부름꾼에 불과했던 “자비스”와 스스로 생각하고 지구를 지키는 슈퍼히어로인 “비전”의 차이를 말하고 싶었다는 것으로 글을 마쳐볼까 합니다.

둘의 근본은 같죠.

다만 비전은 “네가 틀렸어!”라고 말하는 AI입니다.


반응형