시민사회와 AI의 첫 만남

A.I.C.E. 포럼 후기 — 김재경 LAB2050 연구원

LAB2050
LAB2050

--

1억 명의 유저. 대한민국 인구수의 약 2배의 유저를 특정 서비스가 모으기란 쉽지 않다. 유명한 글로벌 서비스인 인스타그램이 1억명의 유저를 모으는 데 30개월, 틱톡이 1억명을 모으는 데에는 9개월의 시간이 걸렸다. 그렇다면 생성형 AI 서비스인 ChatGPT는 1억명의 유저를 모으는데 얼마나 걸렸을까? 놀랍게도, 단 두 달 밖에 걸리지 않았다. 그만큼 ChatGPT는 AI가 사람들의 주목을 끄는 계기가 되었다. 이미 많은 사람들이 ChatGPT를 써봤고, 어떻게 잘 활용할 수 있는지를 이야기한다. 관련 책들이 쏟아져 나오고 여러 학회와 포럼들도 열리고 있다.

하지만 기존 포럼들에 잘 논의되지 않는 것들이 있다. AI로 인해 어떤 산업이 부상하고, 이런저런 신기하고도 놀라운 서비스들이 나타날 것이란 예측들은 난무하지만, 정작 AI가 우리 사회를 구조적으로 어떻게 바꿀지에 대한 논의는 지지부진하다. 이를 테면 이런 질문들이 제기될 수 있다. AI가 보편화되는 시대에 교육이 어떻게 바뀌어야 할까, AI로 우리의 민주주의와 정치 체제는 어떻게 바뀔까, AI 시대에 공론장과 사회운동은 어떻게 달라질까, 사회 각 주체들은 AI가 주는 영향에 어떻게 대응해야 할까. 이런 수많은 질문들이 쏟아지지만, 제대로 논의하는 자리가 잘 보이지 않는다. 그래서 LAB2050이 A.I.C.E. (Artificial Inteligence &Civic Engagement) 포럼을 만들었다. AI에 대한 논의 중에서 중요한 부분을 차지해야 하는 ‘사회적 담론’을 집중적으로 다루기 위해서다. 기술에 영향을 받는 이들이 사회 구성원 전부이기에 기술에 대한 논의에도 시민들의 참여가 필수적이다. 전문가들과 산업계에만 이 논의를 맡겨둘 수 없는 이유가 여기에 있다. LAB2050은 AICE포럼을 정기적으로 개최할 예정이고, 제1회 포럼의 주제를 ‘AI와 시민사회의 만남’으로 잡았다. 이번 포럼에선 AI 기업인 네이버 뿐 아니라, 시민사회 분야의 5개 단체가 참여했다.

본 세션

[LAB2050]AI충격, 중요한 건 사회적 담론

윤형중 LAB2050 대표

이날 첫 번째 발표를 맡은 윤형중 LAB2050 대표는 인공지능에 대한 사회적 담론이 중요한 이유를 두 가지 제시했다. 하나는 인공지능은 많은 사람들이 사용할 ‘범용’ 기술이 될 가능성이 매우 높고, 지금이 그 초입에 있기 때문이다. AI가 범용 기술이 되지 않는다면, 또한 AI를 활용할 시기가 아직 멀었다면 지금부터 논의할 필요가 없다. 그런데 지금은 범용 인공지능 시대의 초입일 가능성이 높다. 다른 한 가지 이유는 기술이 급속도로 발달하며 사회를 빠르게 바꿔나가는데 반해 그에 대응하는 사회 시스템과 사람들의 인식과 문화 등이 변화하는 속도는 상당히 더디다는 것이다. 결국 이 격차를 메우려면 AI에 대한 사회적 담론이 시급하고, AI 시대에 맞는 사회 시스템, 인식, 문화 등에 대한 다수의 합의를 이끌어내야 한다. 그런데 현실은 이런 논의 자체가 거의 부재한 상황이다.

AI시대 이전에 비슷한 문제는 여러차례 반복됐다. 소셜네트워크서비스(SNS)의 등장 초기엔 많은 사람들은 직접 민주주의의 도구가 등장했다며 환호했고, 개인들은 대중매체를 통하지 않고도 자신의 의견을 전세계에 알릴 수 있었다. 실제 중동의 독재국가들에 대항하는 민주화 운동이 SNS를 통해 조직되었고, 수십년간 권력을 장악했던 독재자들이 잇따라 권좌에서 물러났다. 당시만 해도 SNS가 확증편향과 정치적 양극화의 원인, 디지털 성범죄의 수단으로 지목되리라 예상하지 못했다. 어찌보면 작금의 기후 위기도 기술과 관련한 사회적 담론이 충분히 이뤄지지 못한 결과다. 우리는 기술이 주는 여러 혜택을 누리기만 했지, 그 혜택으로 인한 부작용인 기후위기를 제대로 통제하지 못했다. 이제서야 여러 국가들이 모여 해법을 모색하고 있지만, 과학자들은 그 대응이 너무나 미진하다고 지적한다. 과학자들은 재앙을 피하려면 지구의 평균 온도가 기존보다 1.5도 이상 높아지지 않아야 한다고 지적했지만, 이미 목표 달성은 어려운 상황에 이르렀기 때문이다. AI 시대에 이전과 같은 문제가 반복되지 않으려면 기술 발달 속도에 맞게 사회적 논의도 속도감있게 전개될 필요가 있다.

AI는 더 많은 사람들이, 더 넓은 범위에서 활용될 기술일 가능성이 높다. 컴퓨터 코딩을 대신해 주는 것은 물론이고, 마케팅 문구를 작성해주고, 문서 작업을 자동화하는 업무, 더 나아가 여행 예약 등 우리가 지금 사용하는 서비스들을 ChatGPT 안에서 사용할 수 있게 될 예정이다. 그렇게 될수록 AI는 점점 더 많은 사회 문제를 일으킬 것이다. 예를 들어, 대화형 AI가 사람에게 자살을 권유하는 충격적인 일이 있었다. 대화형 AI는 기본적으로 거대언어모델(LLM)을 기반으로 작동한다. 거대언어모델에서의 ‘거대’는 학습하는 언어 데이터의 크기를 의미하며, 인터넷에 존재하는 많은 데이터를 학습하여 거대한 모델이 된다. AI는 거대언어모델을 활용해 입력한 문장의 맥락에 맞게 다음에 이어질 수 있는 단어와 문장들을 확률적으로 추론하여 대답한다. 즉 대화형 AI는 기본적으로 감정이 없고, 인간과 같이 대화를 이해하지 않다는 점을 서비스 공급자와 이용자 모두 이해해야 한다. 이외에도 자율주행자동차가 사고를 냈을 때의 법적 책임이나, 인간의 데이터를 학습한 AI의 저작권 문제 등 매우 많은 AI 문제가 이미 존재하고, 더 많은 문제가 생길 것이다.

AI 발전에 비해 AI에 대한 사회적 담론이 부족한 지금, 우리는 AI에 대해 더 알고 더 논의해야 한다. 이와 관련하여 윤형중 대표는 “AI는 AI가 일으키는 문제를 스스로 해결하지 않는다.”라며, “인공지능의 개념, 응용 및 영향을 이해하고 비판적으로 다룰 수 있는 능력인 ‘AI 리터러시’개념을 강조하고 싶다”고 말했다. AI가 AI문제를 스스로 해결하지 않기 때문에, 인공지능(AI) 문제에 시민이 개입(Civic Engagement)해야 한다.

[네이버 하이퍼클로바]ChatGPT보다 한국에 적합한, ChatGPT보다 사회를 챙기는 AI

하정우 네이버클라우드 AI랩 소장

국내 IT기업이 AI 개발을 하고 있다고 하면, OpenAI나 Google보다 잘 만들기 어려울텐데 왜 경쟁하는지 궁금증을 가질 수 있다. 그리고 그 경쟁이 과연 우리에게 도움이 되는지에 대한 의문도 함께 들기 마련이다. 우선, 데이터 주권의 문제가 있다. 거대언어모델을 만들기 위해 필요한 데이터는 인터넷 상에서 가져오는데, 해외 AI가 한국에 대해 학습하면 우리의 데이터가 마이크로소프트 클라우드, 구글 클라우드로 옮겨지는 것이다. 따라서, 해외 거대언어모델만 발전한다면 한국이 수십 년간 쌓은 지적 재산으로 해외 기업만 이익을 보게 될 수 있다. 뿐만 아니라, 시민 사회에서 아무리 AI담론을 잘 발전시켜 법으로 규제할 토대를 잘 쌓아도, 해외 기업의 경우 국내법을 온전히 적용하기 어려울 수 있다. 네이버와 같은 한국 기업은 해외기업보다 한국 시민사회와 거리가 가깝다. 때문에 이번 AICE포럼과 같이 해외기업보다 쉽게 AI담론에 대한 대화의 장에 초대할 수도 있고, 국내법에 의한 규제를 적용하기에도 용이하다.

또한 하정우 네이버클라우드 AI랩 소장은 발표에서 한국 AI인 네이버의 하이퍼클로바가 외국 AI인 ChatGPT보다 한국인이 쓰기에 더 편하고, 합리적이라고 주장하였다. 예를 들어, 올림픽대로에서 오토바이가 시속 100km로 달려도 되냐고 물어보면, ChatGPT는 달려도 된다고 대답한다. 하지만 이럴 경우, 벌금 30만원을 내야 한다. 반면에 같은 질문을 던졌을 때 하이퍼클로바는 도로교통법을 언급하며, 달리면 안 된다고 대답한다. 이외에도 여행 코스를 짜달라는 질문을 똑같이 하면, ChatGPT는 실제로 없는 여행코스를 짜는 모습을 보여주지만, 하이퍼클로바는 그런 모습이 덜했다. 한국 사용자를 우선 대상으로 개발중인 만큼 한국에 대한 정보를 더 정확하게 알려준다.

또한 하이퍼클로바는 ChatGPT보다 한국인에게 더 저렴할 기술적 기반이 마련되어 있다. 하정우 소장도 대화형 AI에 대한 기술력 자체는 OpenAI가 더 뛰어나다고 인정했다. 하지만 OpenAI는 세계 시장을 대상으로 서비스하기 때문에 영어 입출력에 공을 많이 들이고 있고, 한국어 입력 효율이 떨어진다. 하이퍼클로바의 한국어 데이터 입력 효율은 ChatGPT에 비해 2~3배 좋다. 대화형 AI의 속도 및 운영 비용은 이 데이터 입력 효율의 영향을 받는다.

하 소장은 네이버가 AI를 통한 사회 기여의 사례로 클로바 케어콜을 소개했다. 클로바 케어콜은 돌봄이 필요한 어르신 1인 가구에 AI가 전화를 걸어 건강, 수면, 식사 등의 안부를 확인하는 서비스이다. 실제 사용 영상에서 케어콜AI는 이전 대화를 기억해독거 노인의 건강을 염려하고, 병원에 가는 것을 권유하기도 한다. 노인 사용자들도“인공지능 상담원이 이렇게 챙겨주니까 너무 좋아요” 라며 친밀함을 보였다. AI를 어떻게 활용하느냐에 따라, 사람의 손이 충분히 닿지 않는 영역에서 사람들을 위해 사용될 수 있다는 걸 보여주는 영상이었다.

하정우 소장은 “네이버가 글로벌 AI윤리에 대해 다루는 국제 학회인 ACM FAccT를 주최하는 등 AI가 사회에 미치는 여러 영향에 대해 고민하고 논의하며 이를 실제 하이퍼클로바 AI 개발에 적용하고 있다”고 주장했다. 네이버는 AI 윤리 준칙을 자체적으로 수립하고 이를 개발 과정에 반영하여 AI가 편향적인 데이터를 학습하지 않도록 하는 등 AI가 사회에 부정적인 영향을 미치지 않도록 노력하고 있다는 점도 언급했다.

시민사회 세션

시민 세션에서는 총 다섯 팀의 사회적 기업, 시민 사회단체가 발표했다. 모든 팀들이 AI에 대한 사회적 담론을 나눴지만, 약간의 차이가 있다. 사회적 담론들을 다루고 있었지만, 사회적치유기업 퐁과 푸른아시아, 계단뿌셔클럽은 ‘인간이 활용하는 AI’에 대한 담론을 다루고 있었고, 정치하는엄마들과 사회적협동조합 빠띠는 ‘인간을 학습하는 AI’에 대한 담론을 다루고 있었다.

[사회치유기업 퐁] AI-인간 협동 심리상담의 가능성

정보연 사회치유기업 퐁 대표

우울증 등의 어려움을 겪는 사람들이 제때 상담을 받지 못하여 일상 생활에 지장이 가거나 극단적인 선택을 하는 경우도 있다. 몸이 급하게 아플 때는 119를 불러야 한다는 것은 상식이지만, 마음이 아플 때는 어디에 전화해야 하는지, 어떤 서비스를 받아야 하는지 막연할 때가 있다.

이런 상황을 완화할 수 있는 상담서비스를 사회치유기업 퐁의 정보연 대표가 소개했다. 마음챙김 명상 등을 통해 사람들에게 심리적 도움을 주는 활동을 해온 퐁은 스스로를 사회치유기업이라고 부르고 있다. 퐁의 정보연 대표는 앞으로 AI와 인간이 함께 상담하는 세상이 올 것으로 예상했다. 단기적으로는 AI가 초기 상담을 담당하는 ‘AI 심리 CPR’상담이 도입될 것이며, 중장기적으론 AI가 인간 상담사를 보조하며 상담을 진행할 것으로 내다봤다. 육체적 CPR이 심정지 시 사용하는 응급처치이듯이, 심리 CPR은 심리적 위급상황에 즉각 대응하는 상담이다. 인공지능을 통한 심리 CPR이 이뤄질 경우, 위기 상황에 처한 분들이 제때 상담을 받을 수 있는 효과와 더불어, 미리 상담사들이 대기할 필요가 없어 적은 비용으로도 서비스가 가능하다.

퐁의 발표에서 눈여겨 볼 점은 심리 상담에 있어 AI와 인간의 역할이다. 인간의 심리는 세심하게 다뤄야 하기 때문에 AI가 상담사를 완전히 대체하긴 어려우나 인간과 협력 관계를 가질 수 있다는 점이다. 정보연 대표는 “20대의 경우, 사람을 직접 대면해서 상담하는 것보다 챗봇을 상대로 3~4시간씩 편하게 이야기하는 것을 선호할 수도 있다. 개인 취향에 따라 대면 상담, AI 원격상담을 선호하는 사람이 나뉠 것”이라고 주장했다. 또한 그는 “AI가 자동화된 검사 진행 및 여러 데이터 정리를 인간보다 더 잘 할 것이다. 이를 활용하여 앞으로 인간 상담사를 AI가 보조하는 형태로 심리상담이 진행될 것”이라며 인간과 AI 간의 역할 분담이 이루어질 것이라고 보았다.

[푸른아시아]인공지능으로 녹색공동체를 만드는 방법

김용범 푸른아시아 전문위원

푸른아시아는 몽골에서 사막화 방지 사업, 탄소 감축을 위한 시민사회 활동에 힘써온 환경 단체이다. 푸른아시아의 김용범 전문위원은 이날 발표에서형광등을 LED 등으로 교체하고 태양광 발전 시스템을 도입하며 주민참여형 절전 운동 등을 진행한 서울 성북구 석관동의 두산아파트 사례를 소개했다. 이런 활동을 통해 이 아파트는 전기사용량을 기존 대비 21% 절감했다.

하지만 구체적으로 무엇을 해야 하는지, 특히 전문가가 아닌 일반 시민들이 공동체 단위에서 어떤 일들을 얼마나 해야 하는지에 대해 정리하고 계산하는 일을 하는 것은 쉽지 않다. 김용범 전문위원은 “AI가 시민들에게 온실가스 감축 등 환경 보호를 위한 여러 계산을 대행해주고, 예측 시나리오를 제공해준다면 시민들이 에너지 전환에 더 쉽게 나설 수 있어 시민 공동체 단위에서도 지구를 더 푸르게 만들 수 있을 것”이라고 밝히며 환경 보호 영역에서의 AI의 역할을 기대했다. 예를 들어, 위에 언급한 사례처럼 특정 아파트의 위치, 사는 사람의 숫자, 아파트 정보 등을 입력하고 목표 감축량을 AI에 제시하면, 절전을 얼마나 해야 하고 태양광 발전을 얼마나 도입해야 하는지, 이를 위해 예산이 얼마나 들고, 언제쯤 회수할 수 있는지 등을 계산해주는 것이다.

푸른아시아는 AI의 적절한 도움을 받는다면 도시 주거단지의 주민들이 녹색 공동체로 변모할 수 있다고 기대했다.

[계단뿌셔클럽]좀 더 빠르게 계단 정복하기

이대호 계단뿌셔클럽 공동대표

계단뿌셔클럽은 휠체어를 타는 분들과 같이 계단을 이용하기 어려운 사람들을 위해 특정 장소에 계단이 얼마나 있는지, 엘리베이터가 존재하는지 등을 안내하는 ‘계단정복지도’를 개발하고 있다. 계단정복지도가 잘 작성된다면, 휠체어는 타는 사람들, 혹은 몸이 아픈 사람들과 어디에서 만날 수 있을지 고민하지 않아도 된다.

지금까지 계단정복지도를 만들기 위해 사람들이 특정 장소의 사진을 찍고 정보를 입력해야 했다. 계단뿌셔클럽의 이대호 공동대표는 OpenAI와 협업중인 ‘Be my eyes’사례를 소개하며, AI가 계단정복지도 제작시간을 크게 줄일 수 있을 것으로 기대했다. ‘Be my eyes’는 ‘시각 장애인들에게 시력을 주세요’라고 자사의 서비스를 소개하고 있다. 시각장애인이 Be my Eyes를 이용하면, 시각장애인의 카메라로 비치는 실시간 화면을 자원봉사자가 볼 수 있게 되고, 시각장애인의 요청에 따라 음식의 유통기한 확인, 떨어진 물건 찾기, 낯선 장소에서 길 찾기 등을 도와주게 된다. OpenAI는 Be my eyes서비스에서 기존 자원봉사자가 하던 일을 AI가 대신 해주는 서비스로 바꿔 나가고 있다.

계단뿌셔클럽도 사람 대신 AI가 특정 장소 사진을 인식해서, 자동으로 계단 갯수나 경사로, 엘리베이터 유무를 입력할 수 있도록 하여 계단정복지도를 더 효율적으로 작성하고자 한다. 이대호 공동대표는 “보통 멤버분들이 계단이 있는 장소에 대한 정보를 2시간동안 50개 정도 입력하시는데, AI가 사진을 인식해서 자동으로 정보를 입력해 줄 경우 같은 시간 내에 70개 정도 정복할 수 있을 것으로 기대한다”고 말했다. 계단정복지도는 현재 별도의 어플을 출시한 상태다. 이런 이 공동대표의 제안에 네이버클라우드 하정우 소장은 “해당 사업의 담당자는 아니지만, 네이버 지도 서비스와도 충분히 연계가 가능해 보인다”고 답변했다.

[정치하는엄마들] 혐오와 차별에서 안전한 AI가 되려면

오은선 정치하는엄마들 활동가

사람들이 가장 많이 사용하는 인터넷 서비스 중 하나인 ‘검색’도 편향적인 것을 알고 있는가? 포럼 발표 화면에 ‘girl’로 검색한 결과로 나온 다수의 선정적인 이미지가 나타났다. 반면 ‘boy’로 검색했을 때 나오는 이미지들은 무난하다. 이외에도 ‘길거리’, ‘서양’이라고 검색해도 선정적인 이미지가 나온다. 이런 검색 결과들은 사회에 이미 존재하는 인간 사회의 성차별을 그대로 보여주고 있다. 정치하는엄마들은 특정 검색어를 입력했을 때 키워드의 원래 의미와 관련 없이 여성을 성(性)적으로 대상화하는 사례들을 수집해왔다. 또한 검색어와 관련 없는 선정적인 이미지가 나오지 않도록 직접 네이버와 만나거나 다음 등의 포털에 신고하는 등 아이들이나 청소년들이 더 사용하기 좋은 인터넷 환경을 만들기 위해 노력해왔다.

정치하는엄마들처럼 데이터 편향에 관심을 가지지 않거나, AI가 이런 편향을 그대로 학습하게 둔다면 어떻게 될까? 2021년에 서비스되었다가 성희롱이나 혐오 논란으로 서비스를 중지했던 챗봇인 ‘이루다’사건이 가장 대표적인 결과다. 이루다는 일부 사용자들이 성적 대상으로 다루기도 하고, 이루다 자체가 성차별적, 소수자 차별 발언을 하기도 했다, 이외에도 대화형 AI는 아니지만, 흑인의 범죄율을 더 높게 판별하거나, 남성이 아닌 여성 아바타를 만들 때만 선정적인 모습으로 생성하는 사례 등 AI가 인간사회의 편향을 그대로 학습하는 문제는 지속적으로 제기되었다. AI는 쉽게, 인간 사회의 편향을 그대로 학습한다.

정치하는엄마들은 이런 사회의 모습을 보고 “AI는 어차피 과거 인간이 생각했던 것을 그대로 학습할 뿐입니다. AI가 편향적인 것이 아니라 AI가 학습하는 세상이 편향적인 것.”라고 말하며, AI 문제를 해결하기 위한 세 가지 방안을 제안했다. 첫 번째로 AI 관리 기구의 설치, 두 번째로 AI심의위원회와 젠더 데스크의 개설, 마지막으로 AI기업 외부의 다양성을 넘어, AI산업에서 일하는 내부 사람들의 다양성 확보의 필요성을 주장했다.

[빠띠]인공지능의 문제를 집단지성으로 풀자

거대언어모델 기반의 대화형 챗봇들이 점점 검색 엔진과 결합되고 있다. 이미 Microsoft의 검색 엔진인 ‘빙’에도, GPT 3.5보다 뛰어난 대형언어모델(LLM)인 프로메테우스가 탑재된 AI챗봇 기능이 추가되었다. 세계 검색엔진 1위인 구글도 구글 검색에 AI챗봇 기능이 추가될 것이라고 밝혔다. AI와 검색 엔진이 결합하면 어떤 문제점이 있을까? 한 가지 예시로, 포럼 첫 순서에서 LAB2050은 자체적으로 개발한 ‘LAB2050 챗봇’과 ChatGPT 3.5의 검색 결과를 비교하며 ChatGPT 3.5가 LAB2050이 개발한 지표를 대답하지 못하는 상황을 청중에게 제시하였다. 특정 AI가 학습하지 못하는 데이터는 검색조차 되지 않을 수 있는 미래가 오고 있는 것이다. 결국, 시민사회를 비롯하여 앞으로 컨텐츠를 발행할 때 어떻게 AI가 컨텐츠를 검색할 수 있을지, 그리고 그 검색된 컨텐츠가 발행한 단체나 개인과 연결되는 독창성을 가지고 있을지가 중요하다고 권오현 대표는 설명했다.

대화형 AI의 학습 방법에 의해 나타나는 다른 문제도 있다. 앞서 정치하는엄마들의 발표에서 봤던, ‘girl’이 다수의 선정적인 이미지와 연결되는 편향을 AI가 그대로 학습하면 어떻게 될까? 앞서 이야기했듯이 기본적으로 거대언어모델(LLM)의 작동 원리는 ‘확률’이다. 우리가 입력한 대화 뒤에 올 확률이 가장 높은 대화를, 정보를 출력하는게 ChatGPT를 포함한 대화형AI의 작동 방식이다. 따라서, 인간의 개입이 없다면 거짓 정보가 많은 나무위키를 학습해서 사실이라고 대답할 수도 있고, girl에 대해 알려달라고 하면 선정적인 대답만 할 수 있다. 이에 대해 권오현 대표는 AI환경에서의 공론장에선 의견의 해석과 수렴 과정에서 인간이 개입해야 하고, AI가 만든 정보를 인간이 개입하여 팩트체크해야 한다고 주장했다.

그렇다면 어떻게 인간이 개입해야 AI가 소수의 의견도 학습할 수 있고, AI가 생산한 정보가 사실인지 확인할 수 있을까? 이에 대해 권오현 대표는 “인간이 함께 모여 고민하는 집단지성을 발휘하여 시민 공동체에 중요 가치가 무엇인지를 의논하고, 이를 토대로 인공지능 기술의 혁신과 풍요의 가치를 발전시켜 더 좋은 사회를 만들어야 한다”고 강조한다. 앞서 계단뿌셔클럽, 퐁, 푸른아시아가 추구하는 시민 공동체의 가치가 인공지능의 기술력에 의해 지원되듯이, AI를 잘 활용하면 분명 인간에게 도움이 될 수 있기 때문이다.

결론 — 지속되어야 하는 A.I.C.E. 포럼

이날 포럼에선 굵직한 AI 담론들을 접할 수 있을 뿐 아니라, 다음 A.I.C.E. 포럼의 필요성도 확인할 수 있었다. 이날AI가 심리 상담을 할 가능성, 사람 대신 계단사진을 분석해 정보를 입력해 줄 가능성을 발견했다. 포럼에 나왔던 사례 외에도 AI는 이미 사람들 대신해서 영상을 만들고, 일러스트레이터의 일자리를 위협하는 등 인간이 하는 일을 더 많이 대신하게 될 것이다. 결국 AI가 할 수 있는 일이 무엇인지 파악할 필요가 있다. 그에 따라 우리가 어떻게 AI를 활용할지, AI로 인해 사람들의 일자리는 어떻게 될지를 파악하고 대비해야 한다. AI로 인해 일자리가 사라진다거나 늘어난다는 주장은 많지만 각 직업의 종사자가 아닌 이상 탁상공론에 불과하다. A.I.C.E. 포럼에서 다양한 직업의 이야기를 듣고, 여러 분야의 전문가와 함께 대책을 논의하는 자리를 가졌으면 한다.

AI의 학습방식에서 나타나는 문제도 많았다. 인터넷을 학습하다보니 AI가 선정적인 편향성을 가지게 될 수도 있고, 소수의 의견을 제대로 담지 못할 수 있다. 온라인상의 개인정보를 무단으로 학습하여 이탈리아에서는 일시적으로 ChatGPT의 사용이 금지되었다. AI가 누군가의 창작물을 무단으로 사용하였기 때문에, 원작자에게 수익을 어떻게 나누어 줄 지도 고민이다. 편향적이지 않고 안전한 AI를 위한 제도, AI가 번 수익 분배에 대한 법 등 ‘AI와 법’에 대해서도 이후 A.I.C.E. 포럼에서 다룰 것이다.

마지막으로 AI 담론에 대해 능동적으로 시민들이 개입(Civic Engagement)해 AI에 대한 이해도(AI리터러시)를 높여가기 위해서도 A.I.C.E 포럼의 필요성을 다시 확인할 수 있었다.

--

--

LAB2050
LAB2050

다음세대 정책실험실 Policy Lab for Next Generation