[에세이]인공지능 챗봇이 초래한 연구 윤리 문제!

원병묵
2024-02-07


캐나다 브리티시 컬럼비아 대학교 Lizzie Wolkovich 교수는 최근 어떤 저널 리뷰어로부터 챗봇을 이용해 논문 원고를 작성했다는 비난을 받았습니다. 그녀는 그런 적이 없었지만, 어쨌든 논문은 리젝되었습니다.  이 경험은 새로운 종류의 연구 윤리 문제를 제기합니다.


저는 최근에 투고한 논문에서 인공지능이 작성한 텍스트를 제가 쓴 것처럼 속이는 표절을 했다는 의심을 받았습니다. 많은 사람들이 그렇듯 저도 논문을 작성하는 작업이 다소 고통스러운 과정입니다. 저는 글쓰기 방법에 관한 책을 읽기도 했고 글쓰기 작업이 원래 느리고 어렵다는 점을 강조한 그 책에서 위안을 얻고 더 나은 글쓰기 방법을 찾고 있었습니다.

저의 글쓰기 전략은 글을 쓰고 싶다는 의지를 갖고 첫 초고를 쓰기 전에 여러 개의 아웃라인을 만든 다음, 글을 쓰면서 많은 수정을 거칩니다. 쉽지 않다는 것을 알지만, 과학자들이 소통을 잘 하려고 노력하는 것은 중요하다고 생각하기 때문에 학생들에게도 항상 이 방법을 추천합니다.

투고한 논문이 챗GPT의 결과물이라는 심사평을 받았다면 얼마나 놀랐을지 상상해 보세요. 한 리뷰어는 "틀림없이 챗GPT 결과물"이라고 썼고, 담당 에디터는 "글쓰기 스타일이 특이하다"며 애매하게 동의했습니다. 놀라움은 제가 느낀 감정 중 하나일 뿐이었으며, 충격과 당혹감, 그리고 혼란과 경각심의 홍수를 느꼈습니다. 제가 글을 쓰기 위해 얼마나 많은 노력을 기울였는지를 생각하면, 특히 아무런 증거 없이 챗봇이라는 비난을 받는다는 것은 큰 타격이었습니다.

사실 저는 챗GPT를 사용하여 원고를 단 한 줄도 작성한 적이 없었습니다. 저는 재빨리 제 주장을 어떻게 증명할 수 있을지 논의했으며, 버전 관리 시스템인 Git을 사용하여 LaTeX 스타일로 논문을 쓰기 때문에 GitHub에서 저의 텍스트 변경 내역을 증명할 수 있습니다. 그리고 챗GPT 등장 이전 논문의 글쓰기 스타일과 이번에 투고한 논문의 글쓰기 스타일을 정밀 비교할 수도 있습니다.

챗봇이 쓴 논문이 아니라고 증명하는 데 시간을 허비할 수 있을 것 같아요. 이는 전반적으로 나쁜 결과를 가져올 것 같습니다. 동료에게 의견을 물었어요. 한 동료는 이렇게 표현했습니다. "모든 과학적 비판은 수용해야 하지만, 이건 전혀 다른 문제"라는 것입니다.

저는 이번 일을 계기로, 동료 심사 과정에 대한 본질적인 문제와 더 중요하게도 인공지능이 어떻게 시도조차 하지 않고도 과학을 타락시킬 수 있는지에 대해 체험했습니다.

사람들은 인공지능이 인류를 통제하고, 잘못된 정보를 증폭시킬 수 있으며, 교묘한 편견과 불평등을 지속시키는 데 도움이 될 수 있다고 우려합니다. 이를 방지하기 위해 안전장치를 마련하려는 노력도 있습니다. 하지만 과학계에서는 필요한 곳에 도움이 되는 AI를 만들려고 노력하고 있으며, 여기에는 글쓰기 보조 기능도 포함될 수 있습니다. 하지만 제 경험에서 알 수 있듯이 챗GPT는 세상에 존재한다는 것만으로도 전체 과학 프로세스를 망가뜨렸습니다. 저는 챗봇으로 오인받는 것에 짜증이 났고, 누군가가 AI가 생성한 텍스트를 투고했다는 사실만으로 리뷰어와 에디터가 너무 냉담하게 반응하는 것에 경악을 금치 못했습니다.

과학의 많은 부분은 동료의 윤리와 진실성에 대한 신뢰와 믿음을 기반으로 합니다. 우리는 대부분 다른 사람들이 데이터를 조작하지 않을 것이라고 믿으며, 사람들이 대규모 언어 모델을 공개하지 않고 논문이나 연구 제안서를 쓰지 않을 것이라고 (아직은) 믿습니다. 저는 증거 없이 누군가를 데이터 사기나 통계 조작으로 고발하지 않지만, 한 심사자는 저를 고발할 때 그런 불쾌감을 느끼지 않은 것 같습니다. 아마도 그들은 가혹한 비난을 의도하지 않았을 것이고, 편집자도 그들의 의견을 그대로 전달하고 반향할 생각은 없었을 것입니다. 하지만 그들은 의도적으로 AI가 생성한 텍스트를 제가 작성한 것처럼 제시함으로써 사실상 제가 거짓말을 하고 있다고 비난한 것입니다. 그들은 또한 제 글과 AI 도구의 글을 구분할 수 있다고 자신했지만, 명백히 구분하지 못했습니다.

우리는 과학계의 사기 및 부정행위를 고발할 수 있어야 합니다. 제 생각에는 데이터 부정행위를 고발하는 사람들이 치러야 할 대가는 너무 높고, 부정행위를 저질렀을 때의 처벌은 너무 낮습니다. 하지만 저는 리뷰어가 아무렇지 않게 부정행위를 고발해도 에디터와 편집장이 심사 내용을 슬쩍 훑어보고 재투고를 권유하는 세상이 걱정됩니다. 이는 리뷰어와 에디터가 투고한 저자의 과학적 무결성을 믿지 않을 뿐만 아니라 윤리가 협상 가능하다는 것을 암시합니다. 이러한 세상은 우리가 기준을 높이지 않는 한 노력도 하지 않고도 쉽게 부패할 수 있는 것입니다.

과학계는 컨퍼런스에서 원고 작성 과정에서 언제, 어떻게 AI를 사용할 수 있는지, 그리고 그러한 도움을 어떻게 인정해야 하는지에 대해 과학계가 만든 보다 명확한 표준을 목표로 대화를 나누는 것부터 시작해야 합니다. 이러한 표준은 에디터가 AI가 생성한 텍스트에 대한 비난을 처리하는 더 나은 프로세스를 개발하는 데 도움이 될 수 있으며, 이상적으로는 저자의 사기를 떨어뜨리지 않는 방식으로 이루어질 수 있습니다.

저는 이제 모든 글쓰기에 첫날부터 Git과 GitHub를 사용하고, 매일 변경 사항을 문서화할 계획입니다. 완벽한 시스템은 아니지만, 챗GPT 없이도 천천히 공들여 쓴 원고를 명확하게 보여주는 종이 흔적은 말할 것도 없고 마음의 평화를 얻게 되었습니다.


*원문: Nature Career Column (05 February 2024)
*본 글은 원병묵 님(성균관대 신소재공학부)이 페이스북에 공유한 글로 허락을 받고 숲사이에 소개합니다. 

 
#인공지능윤리를묻다 


ESC 진행 예정 행사 (참여하면 넓어지는 과학 이야기)

숲사이는 ESC에서 운영하는 과학기술인 커뮤니티입니다.
용약관   |   개인정보처리방침   |   공지 
(04779) 서울특별시 성동구 뚝섬로1나길 5, G601 (성수동1가, 헤이그라운드 성수 시작점) 

Copyright ⓒ 사단법인 변화를 꿈꾸는 과학기술인 네트워크(ESC) All rights reserved.    


운영진 게시판 


숲사이는 ESC에서 운영합니다.

이용약관  |  개인정보처리방침  |  공지

(04768) 서울특별시 성동구 왕십리로 115 G410 

Copyright ⓒ 사단법인 변화를 꿈꾸는 과학기술인 네트워크(ESC) All rights reserved.
운영진 게시판