대한민국을 이끌어가는 민초

챗GPT 시대에 잘 대응하려면

나는 새 2023. 5. 16. 12:19

다산포럼 제1161호
김 재 인(철학자, 경희대 비교문화연구소 교수)

   민주주의 사회에서 공론장을 통한 의사결정은 대단히 중차대한 문제다. 오늘날 공론장은 붕괴했다고 할 수 있을 정도로 위기에 처했다.

언론을 통한 여론 수렴은 불가능한 지경이고, 인터넷 커뮤니티나 단톡방에서는 자기들만의 거품에 갇혀 바깥 집단과 교류하지 않는다.

특히 소셜미디어와 유튜브 등 새로운 미디어는 알고리즘에 따라 콘텐츠를 노출해 기존에 갖고 있던 신념을 강화한다.

이른바 확증편향, 동굴효과, 인포데믹, 위조뉴스, 포퓰리즘 등으로 불리는 현상이 사회를 휘감고 있다. 알고리즘이 인간이 해야 할 의사결정을 주도하는 꼴이다.

  훌륭한 민주 시민을 기르기 위해서는 알고리즘에 따른 의사결정에 굴복하면 안 된다.

이를 위해 가장 중요한 것이 자신이 직접 정보의 진위와 가치를 판단하는 힘을 기르는 일이다.

특히 미드저니와 챗GPT 등 생성 인공지능의 발전은 진실이 아닌 정보를 무한히 만들어낼 수 있는 경지에 도달했다. 그렇지 않아도 혼탁하던 상황이 더 악화했다.

  생성 인공지능에는 여럿이 있지만, 편의상 최근 화제가 되고 있는 챗GPT를 중심으로 생성 인공지능의 한계를 짚어 보자.

  첫째, 왜 그런 생성 결과가 나오는지 알지 못하는 ‘블랙박스’ 문제가 여전하다. 이는 모든 딥러닝 기반 인공지능이 가진 문제기도 하다. 대표적으로 ‘환각(hollucination)’ 현상이 지적된다.

문제는 엉터리 이야기뿐 아니라 진실인 이야기도 환각이라는 것이다.

기술적으로 최소한 10% 정도는 거짓 정보가 필연적으로 섞여 있는데, 거짓이 정보 전체에 고루 스며들어 있다. 따라서 진실인 9개의 생성물이 있다 하더라도, 그저 운이 좋아서 진실일 뿐, 신뢰할 수 없다는 점은 여전하다.

특히 온통 거짓인 이야기보다 9개쯤 진실이 섞여 있을 때, 그 거짓말이 더 위험하다.

  둘째, 정확한 지식이 필요할 때 생성물의 활용도가 떨어진다. 가령 챗GPT가 알려준 내용을 별도의 검증 없이 부장님께 보고할 수 있을까?

책임져야 할 문서를 만들려고 한다면 어수룩한 조수나 뺀질대는 비서에 더 가까운 챗GPT는 좋은 보조자가 되기 어렵다.

자신이 직접 검증하고 확인할 능력이 없다면 챗GPT를 믿어서는 안 된다. 브레인스토밍이나 초안 작성에 활용하는 정도로 그치는 것이 적절하다.

  셋째, 생성물을 검증하는 데 엄청난 시간이 소요된다. 앞서 말했듯, 다수의 진실에 소수의 거짓이 섞여 있을 때가 가장 괴롭다.

검증 작업을 하다 보면 차라리 작업을 처음부터 직접 하는 편이 낫다는 생각이 들기 마련이다.

  따라서 두 가지를 유념해야 한다.

우선 자신의 전문 영역에 맞게 사용 범위를 확인해야 한다.

가령 인문 사회계와 이공계의 실용성 차이가 엄청나다. 특히 로컬, 즉 언어 자료 자체 혹은 언어에 담긴 문화, 규범, 관습 등이 부족해서 학습이 안 되어 있다면 생성물은 초라하기 그지없다.

반면 코딩이나 기술 분야처럼 글로벌한 영역에서는 활용도가 꽤 높다. 따라서 자기 일을 얼마나 잘 도와줄 수 있는지 알면서 사용해야 한다.

  다음으로, 생성물의 진위와 가치를 변별할 수 있는 전문 지식을 갖추는 것이 더 중요하다는 점을 강조해야 한다.

흔히 인공지능이 지적 생산을 대신할 수 있기에 전문가의 입지가 좁아진다고들 한다.

하지만 생성물을 판별하기 위해서도 그렇고, 생성물을 초벌로 삼아 더 수준 높은 최종 결과물을 만들기 위해서도 그렇고, 지금보다 훨씬 높은 지적 훈련이 요청된다.

  곧 출간될 〈ΑΙ 빅뱅, 생성 인공지능과 인문학 르네상스〉에서 생성 인공지능의 현황과 한계, 창의성의 본질과 배양 방안, 학문과 교육 개혁 방향 제안, 인간의 본질에 대한 재성찰을 담은 것은 이런 시대적 요청 아래서다.