시사, 상식

챗GPT 신드롬. 압도적 속도로 퍼지는 생성 인공지능, 검색·지식·정보·창작의 패러다임 바꿔

道雨 2023. 2. 6. 10:43

‘사람처럼 생각한다’는 당돌한 AI, 미래에 기회일까 위기일까

 

 

챗GPT 신드롬
압도적 속도로 퍼지는 생성 인공지능
검색·지식·정보·창작의 패러다임 바꿔
“겉만 그럴싸 ‘할루시네이션’ 주의보”도
“인공지능 활용능력 교육 나서야”

 
“기술의 미래를 만드는데 동참하십시오.” 챗지피티(ChatGPT) 운영사 오픈에이아이(Open AI) 누리집 첫 화면 갈무리. 인공지능 개발자 모집 공고가 가장 먼저 뜬다.

 

 
인공지능(AI) 챗봇 ‘챗지피티(ChatGPT)’가 출시 석달도 안돼 전 세계적으로 신드롬을 일으키고 있다.
챗지피티는 “인공지능이 인류를 크게 위협할 것”이라고 경고했던 일론 머스크 등 ‘인공지능을 염려하는 그룹’이 창설한 인공지능연구소 오픈에이아이(OpenAI)가 지난해 11월30일 선보인 서비스다.
5일도 안돼 이용자가 100만명을 넘은 데 이어, 지금은 1억명을 돌파하는 등, 지구상의 어떤 서비스보다 압도적인 속도로 퍼져나가고 있다. 최근엔 상용 서비스도 출시됐다.

 

 ‘에이아이(AI) 네이티브’ 세대 등장?
 

 

챗지피티란 호칭 가운데 ‘챗(Chat)’은 ‘대화’를, 지피티(GPT)는 ‘사전 훈련된 생성 변환기(Generative Pre-trained Transformer)’란 뜻이다. 대량의 데이터를 학습해 마치 사람처럼 스스로 생각하고 판단하도록 설계된 초거대 인공지능(Hyperscale AI)을 바탕으로, 사용자가 건넨 질문에 대화하듯 답을 ‘생성’해 내놓는 서비스라고 해서 ‘생성 에이아이(AI)’라고도 불린다. 인간이 써둔 콘텐츠를 검색해 결과값만 보여주는 것이 아니라, 자신이 ‘생성’했다고 주장하는 당돌함이 이 챗지피티 서비스의 핵심이고, 2023년 전세계가 이 결과값에 열광하고 있는 모습이다.
 

 

한국지능정보사회진흥원 에이아이(AI)·미래전략센터(이하 미래전략센터)는, 미래세대에선 결국 인공지능(AI)을 얼마나 잘 다루는가가 중요한 경쟁력으로 부각될 것이라는 전망을 담은 보고서를 내놨다. ‘챗지피티는 혁신의 도구가 될 수 있을까'란 제목의 이 보고서를 보면, “앞으로 아이들은 궁금증을 인공지능으로 해소하고, 인공지능으로 여가를 즐기는 ‘에이아이(AI) 네이티브’로 성장”한다. 또한 이들 세대는 큰 변화의 물결 속에서 기회와 위기의 사이에 위치해 있다.
 
 
 
 검색엔진과 지식의 위기
 

 

“구글은 끝났다(Google is done).” 챗지피티 출시 뒤 영국 일간 <인디펜던트>가 쓴 기사 제목이다. <뉴욕타임스>는 구글이 챗지티피와 관련해 비상사태를 선포하고, 래리 페이지와 세르게이 브린 등 창업자에게 도움을 요청했다고 보도했다. 미래전략센터는 보고서에서 “텍스트보다 영상과 이미지에 익숙한 엠제트(MZ) 세대가 궁금한 것을 검색할 때 구글, 네이버 등 포털사이트 대신 유튜브, 틱톡 등 소셜미디어를 찾는 것처럼, 앞으로 ‘챗봇 네이티브’ 세대의 등장으로 전통적인 형태의 검색 엔진은 경쟁력이 잃고 사라질 위기에 처할 수 있다”고 전망했다.
최수연 네이버 대표는 지난 3일 실적발표 콘퍼런스콜에서 “검색엔진 연구의 일환으로 상반기 중 생성 인공지능 서비스 ‘서치지피티(GPT)’를 출시할 것”이라고 밝혔다.
미래전략센터는 동시에 지식을 얻기 위한 노력이 줄어드는 세상의 위험성을 경고했다. 인간의 지식은 자신의 직접 경험이나 각종 미디어를 통해 전달되는 타인의 경험을 학습함으로써 축적되는데, 이 과정이 사라진다는 것이다.
교육 전문가들은 학생들이 작문이나 컴퓨터 코딩 등 과제 해결에 챗지피티를 사용할 경우, 학습 능력이 저하될 것이라 우려한다. 미국 뉴욕시 등 일부 공립학교들은 교내 챗지피티 접근을 차단하기도 했다.

 

 ‘할루시네이션’(hallucination·환각) 현상
 

 

“인공지능을 기반으로 만든 자료가 신뢰할 수 있는 고품질의 자료가 되도록 규제하는 방안이 필요하다.” 지난 3일 <로이터> 통신은 티에리 브르통 유럽연합 내부시장 담당 집행위원이 챗지피티의 인공지능 기술 관련 위험에 대응해야 한다며 이렇게 말했다고 보도했다.
진실 여부에 대한 출처가 확인되지 않는 수많은 데이터를 바탕으로 생성한 챗지피티의 답변은 겉보기에는 논리적이고 그럴싸해 보이지만, 사실은 잘못된 정보이거나 큰 내용이 없는 무의미한 껍데기일 수 있다는 것이다. 이른바 ‘할루시네이션(hallucination·환각) 이슈’다.
존재하지 않는 환각을 보는 것처럼, 인공지능이 없는 답변, 틀린 답변을 제시한다면, 이에 익숙해진 미래세대가 크게 영향을 받을 수 있다. 개발자들의 질의응답 사이트 ‘스택오버플로우(Stack Overflow)’는 이런 점을 들어, 챗지피티를 통해 생성한 답변을 등록하는 것을 당분간 금지하기로 했다.
오픈에이아이(OpenAI)의 샘 알트만 최고경영자(CEO)도 트위터를 통해 “사용자가 중요한 일에 챗지피티를 의존하는 것은 실수이며, 여전히 챗지피티는 진실성 부분에서 해결해야 할 일이 많다”라고 밝혔다.

 

 정보 출처 없는 ‘생성 인공지능’의 세계
 

 

초거대 인공지능 개발에 나서고 있는 케이티(KT)는 지니티브이(TV)의 음성대화 기술을 발전시켜, 오은영 박사(정신건강의학)의 저작물을 바탕으로 한 육아상담 서비스를 내놓을 계획이다. 이렇듯 유명인의 경우에는 데이터의 출처와 저작권을 밝히고 생성 인공지능을 통한 결과값을 내놓을 수도 있지만, 일반적인 작동 방식은 그렇지 않다.
수많은 콘텐츠 창작자들의 창작물은 거대한 데이터 속에 섞여 들어가고, 챗지피티와 같은 생성 인공지능은 출처를 표시하지 않고 시, 소설, 에세이, 기사, 기술보고서, 사업계획서, 제품설명서 등을 마구잡이로 생성할 수 있다.
이 때문에 챗지피티는 표절·대필 문제, 결과물의 신뢰성 문제, 저작권 문제를 끊임없이 마주하게 될 것으로 보인다. 콘텐츠 생산자, 창작자를 꿈꾸는 미래세대의 앞날이 불투명해지는 것이다. 미래전략센터는 “생성 인공지능 시대에는 광범위한 실업이 발생하거나 일부 직업은 대체될 것이고, 일부 직업은 확대되거나 예상치 못한 방식으로 재창조되는 등, 수십억 근로자들의 삶에 영향을 미칠 것”이라고 예측했다.

 

 활용능력 양극화
 

 

오픈에이아이(OpenAI)는 지난 1일 월 20달러짜리 유료 서비스 ‘챗지피티 플러스’를 출시했다. 무료 버전은 사용자가 몰리면 ‘'현재 용량이 가득찼다”는 알림과 함께 서비스를 이용할 수 없는 경우가 발생할 수 있는데, 유료 버전에선 그런 현상이 없다고 한다. 이를 계기로 한 순간에 생성 인공지능을 위해 돈을 지불할 수 있는 이용자와 그렇지 않은 이들 사이가 갈라졌다. 생성 인공지능이 사회의 많은 기능을 대체하면서 이같은 격차는 더 커질 수 있다.
학생들의 디지털 기기 이용 수준과 인공지능 교육 여부에 따라서도 양극화가 발생할 수 있다. 국내에서는 인공지능 기반의 디지털 교과서를 도입하겠다고 하면서도, 아직까지 서울시교육청조차 학생들에게 공평한 디지털 기기 활용 기회를 주는 ‘1인 1디바이스(기기)’ 보급 정책을 제대로 펴지 못하고 있는 상황이다.
미래전략센터는 “학생들이 생성 인공지능의 정보 출처를 인지하고 자동화된 인공지능 모델의 사용법과 한계를 배울 수 있도록 디지털 교육이 필요하다”고 강조했다.

 

MS·구글·네이버부터 삼성전자까지‘챗GPT 신드롬’에 바빠지는 발걸음
 
‘신드롬’으로 불리기까지 하는 생성 인공지능(AI) ‘챗지피티(ChatGPT)’ 열풍에 관련 업계의 대응 발걸음도 바빠지고 있다.마이크로소프트(MS)는 챗지피티 개발업체 오픈에이이아이(OpenAI)에 세 번째 투자를 했다. 2019년과 2021년에 이은 행보였는데, <블룸버그>는 이번 투자가 100억달러 규모라고 보도했다.
엠에스는 또한 오픈에이아이의 인공지능 기술이 내장된 유료 협업 솔루션 ‘팀즈 프리미엄’ 서비스를 출시한 데 이어, 향후 검색 엔진 ‘빙(Bing)’도 챗지피티를 탑재한 버전을 내놓을 예정이다.
 
챗지피티 열풍을 ‘코드 레드(code red)급 위협’으로 규정했던 구글 모회사 알파벳 최고경영자(CEO) 순다르 피차이는 지난 2일 “향후 구글 인공지능 언어 프로그램 ‘람다’(LaMDA)를 활용한 새 인공지능 기반 프로그램을 출시할 것”이라고 밝혔다.
 
국내 대표 검색 포털 네이버는 인공지능 검색서비스 ‘서치지피티(SearchGPT)’를 상반기 중 내놓겠다고 밝혔다. 최수연 대표는 “생성 인공지능의 단점인 신뢰성과 최신성 부족, 영어 기반 개발 모델을 한국어로 번역하면서 발생하는 정확성 저하를 네이버의 기술 노하우로 해결할 것"이라고 말했다.
 
케이티(KT)는 서울시교육청과 업무협약을 맺고, 청소년 인공지능(AI) 인재 양성에 협력하기로 했다고 5일 밝혔다. 2020년부터 서울시교육청이 인공지능 고등학교로 선정한 서울디지텍고, 선린인터넷고, 미림여자정보과학고, 서울로봇고 등 10곳에 인공지능 활용 능력 자격시험을 도입해 지원할 계획이다.
 
국내 반도체 업체들도 적극적인 대응 투자와 제품 개발에 나서고 있다. 반도체 업계에선 인공지능 시장이 활성화하면 고성능·고용량 메모리 반도체 수요가 증가할 것으로 보고 있다. 5일 시장조사업체 가트너에 따르면, 인공지능 반도체 시장 규모는 2020년 220억달러(27조원) 규모에서 올해 553억달러(69조원)로 커졌고, 2026년엔 861억달러(107조원)까지 성장할 것으로 전망된다. 음성인식, 기계번역, 자율주행, 메타버스 이미지 분류 등 인공지능 산업의 응용 분야가 지속 확대되고 있어서다.
 
김재준 삼성전자 메모리사업부 부사장은 최근 실적 콘퍼런스콜에서 “시장이 요구하는 고성능·고용량 메모리 개발을 통해 인공지능 서비스 수요 증가에 적극 대응할 계획”이라고 말했다.

 

 

 

 

임지선 기자 sun21@hani.co.kr 김회승 선임기자 honesty@hani.co.kr

 

 

**********************************************************************************************************

 

 

인기 폭발 ‘챗GPT’ 개발 책임자 “규제 필요하다” 인정

 

 

미 주간지 인터뷰서 규제기관 개입 필요 제기
유럽연합 고위 인사도 처음 규제 필요성 언급

 
              * 한 사용자가 인공지능 챗봇 ‘챗지피티’와 대화하기 위해 글을 입력하고 있다. 다름슈타트/dpa 연합뉴스

 

 

 

 

전 세계에서 폭발적인 인기를 끌고 있는 인공지능 챗봇 챗지피티(ChatGPT) 개발 회사의 기술 책임자가, 이 챗봇의 악용 가능성을 인정하며, 규제 필요성을 제기했다. 이 반응은 인공지능 기술 규제를 추진하고 있는 유럽연합(EU)의 고위 인사가 이 챗봇을 직접 거론하며 규제 가능성을 언급한 뒤 나왔다.
 
챗지피티의 개발 회사인 오픈에이아이(AI)의 미라 무라티 최고기술책임자(CTO)는 5일, 공개된 미국 시사 주간지 <타임> 인터뷰에서 “인공지능은 남용될 수 있고, 나쁜 이들이 사용할 수도 있다”며 “이 기술을 전 세계적으로 어떻게 관리할 것이냐는 문제가 있다”고 인정했다.
그는 구체적으로 “인공지능 기술을 인간의 가치에 맞춰 조정하면서 사용하도록 어떻게 관리할 것이냐”가 문제라고 덧붙였다.
 
무라티 최고기술책임자는 정부의 개입으로 혁신이 지연될 수 있다는 우려가 있다는 지적에 대해, 인공지능을 규제하는 건 “지금도 너무 이른 건 아니다”고 말했다. 이어 “이 기술이 가져올 영향을 고려할 때 모두가 관여하는 것이 아주 중요하다”며, 규제 기관과 정부 등의 개입 필요성을 인정했다.
 
챗지피티는 사람의 대화 시도에 단편적인 반응만 보이는 기존의 많은 챗봇과 달리, 아주 논리적이고 정교한 답변을 내놓을 수 있다. 이런 뛰어난 성능 때문에, 지난해 11월 말 처음 일반에 공개된 뒤 2달여만에 사용자가 1억명을 넘어설 정도로 큰 인기를 누리고 있다.
<타임>은 지난달 구글 검색 추세를 보면, 챗지피티 검색 건수가 비트코인을 앞지른 것으로 나타났다고 전했다.
 
전문가들은 이 챗봇이 만들어낸 글들이 언뜻 보기에는 그럴 듯 해도 피상적이거나 부정확한 경우가 많다고 지적하고 있다. 이 때문에 이 챗봇을 이용한 논문 표절, 사기 행위, 거짓 정보 유포 등에 대한 우려도 커지고 있다. 프랑스 파리정치대학(시앙스포) 등 많은 대학들은 학생들에게 이 챗봇 사용을 금지했다.
인공지능 기술 규제법 제정을 논의하고 있는 유럽연합의 티에리 브레통 내부시장 담당 집행위원은 지난 3일, 챗지피티가 인공지능 기술과 관련된 위험에 대처할 법률 제정이 시급함을 보여준다고 지적했다. 유럽연합의 고위급 인사로서는 처음 챗지피티를 직접 거론하며 규제 필요성을 언급한 것이다.
브레통 집행위원은 “챗지피티가 보여주듯이 인공지능 기술은 기업과 시민들에게 뛰어난 기회를 제공할 수 있지만, 위험도 제기한다”며 “인공지능을 기반으로 만든 자료가 신뢰할 수 있는 고품질의 자료가 되도록 규제하는 방안이 필요하다”고 지적했다.
그가 지난해 제안한 인공지능 기술 규제 법안에 따르면, 챗지피티는 채용이나 신용 평가처럼 ‘고위험 업무’에 쓰일 수 있는 ‘범용 인공지능 시스템’으로 분류된다. 브레통 집행위원은 ‘고위험 인공지능 시스템’들이 유럽연합이 제정하려는 법안을 준수할 수 있도록 하는 데 오픈에이아이가 협력해줄 것을 희망한다고도 말했다.
 
 
신기섭 선임기자 marishin@hani.co.kr

 

 

********************************************************************************************************

 

 

챗GPT, ‘법안’도 만들었다…민주주의 체제는 무사할까

 

인공지능 챗GPT 영향 어디까지

미 의원, 챗GPT로 AI규제법안 작성
메시지 작성등 로비스트 대체 가능성

약자의 입법도구 되면 민주주의 활력
권력기관 활용하면 로비가 투표 압도

 

 

대화형 인공지능 서비스 챗지피티(ChatGPT) 돌풍이 거세다. 예술, 교육, 심지어 정치까지 챗지피티의 활용사례가 알려지며 태풍으로 번지고 있다.
챗지피티는 시나 에세이, 수학문제 풀이 수준을 넘어 법안 초안도 만든다. 머잖아 정치과정에서 인간이 수행해온 로비 역할까지 대체할 것이라는 전망이 나온다. 인공지능은 이미 민주주의 과정 전반을 흔들고 있다.
지난달 25일 미국 <워싱턴포스트>는 매사추세츠주 상원의원 배리 파인골드가 챗지피티를 활용해 개인정보 보호 관련 법안 초안을 만들었다고 보도했다. 개인정보 보호와 지적재산권 보호를 위해, 인공지능 기업이 알고리즘에 대한 정보를 공개하고 정기적으로 위험성을 점검하는 등의 조처를 시행해야 한다는 내용이다.

 

 

 

챗지피티는 어떻게 법안 초안을 만들 수 있었을까?
법안 작성은 챗지피티가 대화형 인공지능 서비스라는 특성을 고려해, 사용자가 법안과 관련해 특정 질문을 던지면 이에 대해 챗지피티가 답변하는 방식으로 이루어졌다.
“매사추세츠주 법 스타일로 법안 초안을 작성하라”라고 요청했을 때, 처음에는 챗지피티가 “법안 초안을 작성할 수 없다”며 거절했지만, 여러 차례 시행착오 끝에 ‘70퍼센트’ 수준의 초안을 만들었다고 파인골드 의원은 말했다.
사용자가 풍부한 아이디어를 가지고 이를 구현할 수 있게 구체적으로 요청할 때 결과도 유용했다. “챗지피티는 비식별화 문제, 데이터 보안과 같은 일부 주제에 대해서는 합리적 아이디어도 제시하는 등 독창적 기여도 했다”고 파인골드 의원은 평가했다.
 
민주주의에서 법안 작성은 고도의 정치적 행위다. 법은 갈등하고 충돌하는 여러 이해관계가 경합하는 장이며, 이를 조정해 구속력있는 문서로 만드는 과정이다. 이처럼 인간 사회를 규율하는 제도, 법 제정 등 인간에게 고유한 고도의 정치과정에 인공지능이 개입하면서 민주주의 근간이 흔들리고 있다.
전문가들은 입법과정에서 요구되는 문서 요약, 자료 및 법안의 비교 등을 위해 챗지피티를 사용할 수 있지만, 인간의 감독이 필요하다고 말한다. 즉, “법안 작성 등과 같은 정치과정에서 챗지피티가 인간을 대체할 수 없으며, 노동력을 절약하는 장치로써만 활용되어야 한다”는 것이다.
 
 
챗지피티는 여론 형성과 정책 개입 등 로비 과정에도 활용될 수 있다.
지난달 15일 미국 <뉴욕타임스>에 실린 데이터 과학자 네이선 샌더스와 보안 전문가 브루스 슈나이더의 공동 기고문 ‘챗지피티는 어떻게 민주주의를 탈취하는가’에 따르면, 챗지피티는 특정 정책에 대한 의견 작성, 지역신문에 기고할 편지 작성, 소셜 미디어 게시물 작성, 뉴스 기사에 대량의 댓글 달기 등의 방식으로 여론에 개입할 수 있다.
정책에 영향을 미치는 핵심 정치인, 또는 여론주도층을 선별해, 이들에게 정확한 메시지를 작성·전달하는 것이 유능한 로비스트의 역할이다. 챗지피티는 아직 핵심 정치인을 찾아내는 데는 이르지는 못하지만, 빠르고 정확한 메시지 작성에서는 놀라운 능력을 보인다. 머잖아 챗지피티의 자동 메시지 작성 기능과 정치 네트워크를 이해해 핵심 정치인을 타겟팅할 수 있는 시스템이 결합한다면 파괴력은 상당할 것이다.
챗지피티가 기업의 법인세, 국방예산 등과 같은 특정 정책 영역에서 가장 큰 영향력을 가진 의원을 스스로 찾아내어 이들에게 정확한 메시지를 직접 작성·전달하는 ‘원스탑 로비’도 가능해질 수 있다는 의미다.
민주주의에서 여론은 목소리를 낼 수 없던 보통의 시민들이 정치에 참여하고 영향을 미칠 수 있는 핵심 무기다. 여론 조작은 민주주의를 위협하는 중대한 범죄로 간주한다.
러시아가 2016년, 2020년 트럼프의 당선을 돕기 위해 소셜 미디어에 유령 계정들을 자동 생성하는 ‘봇(bots)’ 프로그램을 심거나 사이버 댓글부대를 운영하는 방식으로 여론조작을 시도한 것이 대표적 사례다.
2017년 한국 대선에서도 매크로 프로그램을 이용해 포털사이트 기사 댓글의 공감·비공감 클릭 수를 조작하는 방식으로 여론조작을 시도해 문제가 됐다.
 
민주주의는 부유하건 가난하건 누구나 한 표씩만 행사할 수 있는 평등한 체제다. 민주주의의 대가로 불리는 정치학자 로버트 달은, 민주주의인가 아닌가를 구분하는 것은 “공적 논의와 결정의 과정에 평등한 영향을 미칠 수 있는 절차적 조건”이라고 말했다.
이를 위해서는 시민 모두가 의견을 가지고 표출할 수 있는 권리가 보장되어야 한다. 챗지피티를 이용해 댓글과 같은 정치 메시지를 대거 생산해 유포하는 것은, 참여와 의견을 조작해 민주주의를 위협한다.
 
한편 챗지피티는 누구나 접근가능하기에 힘없는 약자들도 정책에 영향을 미치기 위해 로비를 시도할 수 있어 민주주의에 활력을 부여할 것이라는 기대감도 있다. 하지만 강력한 힘을 지닌 기관일수록 ‘인간 로비스트’는 물론 ‘인공지능 로비스트’도 적극 활용할 가능성이 크다.
누구나 챗지피티를 이용할 수 있다지만, 결국 아이디어와 경험이 많은 전문가, 그리고 자금력이 뒷받침될 때 로비의 효과도 극대화된다. 이들이 챗지피티를 이용해 조직적 로비를 펼칠 때, 보통의 시민이 정치에 영향을 미칠 수 있는 권한인 ‘투표’는 무력해질 수 있다.
 
 
한귀영 사람과디지털연구소 연구위원 hgy4215@hani.co.kr

 

****************************************************************************************************

 

 

인공지능 챗봇 시대, 필자의 책임과 신뢰

 

 

* 지난해 11월 말 공개된 챗지피티(GPT)는 책, 사전, 논문을 비롯해 방대한 텍스트의 데이터베이스에서 단어와 문장 연결의 통계적 패턴을 익힌 언어 생성 인공지능으로, 사람처럼 상당히 능숙하게 대화하며 글을 쓰는 능력을 보여준다. 그림은 챗지피티의 첫 화면 갈무리.

 

 

시도 짓고 논문도 쓰는 인공지능(AI) 챗지피티(chatGPT)를 두고서, 요 몇달 새 글 쓰는 사람들의 반응이 뜨겁다. 한마디로 요약한다면 ‘놀랍고도 두렵다’로 간추릴 만하다.

 

챗지피티는 미국 인공지능 기업 오픈에이아이(OpenAI)가 지난해 11월 공개한 대화형 인공지능인데, 책, 사전, 논문을 비롯해 방대한 텍스트에서 단어와 문장 연결의 통계적 패턴을 익힌 딥러닝 덕분에, 사람처럼 상당히 능숙하게 대화하며 글을 쓸 줄 안다.

 

칼럼을 준비하며 챗지피티를 활용해봤다.

“인공지능 챗봇 시대, 필자의 책임과 신뢰라는 제목으로 칼럼을 작성하시오.”

불과 몇초 만에 분량을 맞춘 칼럼이 생성됐다. 밋밋한 문체와 구성, 두루뭉술한 설명은 평범하고 정보 출처는 불분명해 성에 차지 않았지만, 말 그대로 놀랍고도 두려웠다.

챗지피티 공개 직후, 학생들이 과제물을 챗봇에 맡겨버릴지 모른다는 교육자의 근심, 가짜 논문이 쉽게 생성될 수 있다는 과학자의 우려가 쏟아졌는데, 다들 이유 있는 반응이었다.

 

두달여 시간이 흐른 요즘에는 다양한 의견이 나오고 있다. 일부 교육자들은 챗봇을 교육과정에 도입해야 한다고 주장한다. 챗봇 사용 금지가 실효성이 없는데다, 챗봇이 일상이 될 시대에 오히려 챗봇을 비판적으로 활용하는 능력과 태도가 필요하다는 것이다.

 

과학자 사회도 여러 논의로 분주하다. 최근엔 인지과학, 계산언어학 분야의 다섯 학자가 <네이처>에 기고한 ‘챗지피티: 연구 분야의 다섯 원칙’에서 과학논문의 신뢰성을 잃지 않기 위해 다섯가지 대책과 실행이 필요하다고 제안했다.

먼저 챗봇에서 오류와 편향 문제가 종종 발견되기에 전문가 검증과 확인 절차가 꼭 필요하다는 점, 그리고 인간 필자는 인공지능을 어떻게 활용했는지 투명하게 밝힐 책무를 다해야 하고, 투명하고 민주적으로 제어되는 인공지능 개발에 더 많은 투자가 필요하며, 사람과 인공지능 간에 건강한 ‘지능형 파트너십’을 발전시킬 균형의 방법을 찾아야 한다는 점, 그리고 이를 위한 토론이 당장 연구와 교육 현장, 국제사회에 많아져야 한다는 점이 강조됐다.

 

챗지피티의 충격은 새삼 필자다움의 문제를 돌아보게 한다.

아리스토텔레스는 <수사학>에서 설득과 이해를 위한 논증에 중요한 세 요소로, 텍스트의 충실성과 논증기법(로고스), 청중의 마음상태(파토스)와 더불어 믿음직한 필자의 능력과 태도(에토스)를 강조했다.

인간 필자들이 쓴 텍스트의 패턴을 모방하지만 필자로서 책임지지 않는 인공지능 챗봇과 다르게, 차별성을 고양해야 하는 인간 필자들에게 책임과 신뢰라는 요소는 더욱 중요해진다.

 

<네이처>에 실린 다섯 원칙에서 필자다움의 에토스를 다시 읽는다.

 

 

 

오철우 | 한밭대 강사(과학기술학)