월드라이브러리
외국 연구자료
- 작성부서 국제교류홍보팀
- 등록일 2025-01-10
- 조회 699
유네스코(UNESCO)가 발간한 보고서 ‘생성형 인공지능의 발전에 대한 대응으로써 미디어와 정보 문해성을 통한 이용자 역량 강화(User empowerment through media and information literacy responses to the evolution of generative artificial intelligence (GAI))’는 ‘생성형 인공지능(Generative Artificial Intelligence, GAI)’의 등장과 확산이 정보 및 디지털 환경에 미치는 영향을 분석하며, ‘미디어와 정보 리터러시(Media and Information Literacy, MIL)’를 적용한 정책적 접근을 제안한다.
본 보고서는 GAI 시스템이 방대한 콘텐츠를 재구성하고 사용자 지시에 따라 출력을 생성하는 기술적 특성을 설명하며, 이러한 기술이 보건, 교육 등 여러 분야에서 제공하는 이점과 함께 윤리적 문제, 규제 필요성, 그리고 인간의 권리와 가치에 부합하지 않을 가능성 등 다양한 우려를 다룬다.
또한, 보고서는 사용자 역량 강화를 위한 MIL 전략과 정책이 왜 중요한지 논의하며, 시민들이 인공지능(AI)과 관련된 담론에 참여하고 AI 개발 및 사용의 책임을 요구할 수 있도록 지원하는 방법을 제안한다.
이 보고서는 디지털 플랫폼, 정부, 시민 사회 단체 등 다양한 이해관계자들에게 유용한 참고자료가 될 것이며, 특히 젊은 세대의 역량 강화와 성별 및 문화적 다양성 문제를 강조하는 데 초점을 맞추고 있다. 다음은 보고서 전문이다.
주요 메시지
|
• AI와 GAI는 사람들이 정보와 디지털 기술 및 미디어를 이용하는 방식에 큰 영향을 끼치고 있다. 이로써 정보와 의사결정, 성평등, 전반적인 자유에 대한 인간 주체성과 자율성이라는 통제권의 문제가 제기되고 있다. |
|
• GAI에 대한 대응으로써 미디어·정보 문해성을 통한 이용자 역량 강화가 전면적으로 실행되어야 하며, 공공정책 입안자들은 개발 초기부터 이에 관심을 기울여야 한다. |
|
• AI가 100% 또는 부분적으로 생성한 비디오, 텍스트, 이미지, 음성 콘텐츠 등 합성 미디어의 윤리적인 이용 관행을 확립하기 위해서는 미디어·정보 문해성이 필요하다. |
|
• GAI는 정보 접근성, 참여, 고용 경쟁력, 창의성, 평생학습, 창의산업과 같은 사회적 기회를 강화시킬 수 있다. |
|
• 그러나 또한 허위 정보, 데이터 프라이버시의 상실, 공정 선거에 대한 위협, 감시, 출처 신뢰성 부재, 성적 및 인종적 편견을 포함한 차별, 저작권 침해 등과 같은 사회적 문제를 심화시킬 위험이 있다. |
|
• 이러한 시급한 상황에 맞서 사람들에게 익숙한 미디어·정보 문해성에 AI 문해성을 포함시켜 다양한 공동체(교육자, 사서, 어린이·청소년 전문가, 여성 네트워크 등)를 교육시킬 수 있다. |
|
• 미디어·정보 문해성 커리큘럼과 GAI 관련 정책 및 거버넌스의 설계에서는 ‘설명 가능한 AI(explainable AI)’를 보장해야 한다. |
|
• 정보와 교육에 대한 신뢰를 구축하기 위해서는 GAI가 제공하는 다양한 유형의 ‘증거’를 포함하도록 출처 신뢰성을 수정해야 한다. |
|
• 미디어·정보 문해성은 테크 업계 밖의 사람들이 인간 중심적이고, 성인지적이며, 공익적인 방식으로 AI 설계와 구현 및 규제에 참여하도록 교육시킬 수 있다. |
|
• 미디어·정보 문해성 교육은 정부와 고등교육기관의 책임이다. 이들은 날로 진화하는 AI/GAI에 맞서 미디어·정보 문해성 정책 행동을 유지 및 강화하고 미래에 대비할 의무가 있다. |
서론
이 정책 브리프는 정보 및 디지털 생태계에서의 위험과 기회에 대응하기 위해 모두를 위한 미디어·정보 문해성이라는 관점을 AI/GAI에 적용할 있는 방법을 보여주기 위한 것이다. 어린이·청소년의 역량 강화와 젠더 이슈 및 문화적 다양성에 특별히 초점을 맞추었다. 또한 미디어·정보 문해성 원칙과 역량을 바탕으로 구체적인 정책 행동으로 이어질 수 있는 권고를 제시한다. 이 정책 브리프는 시민사회단체와 언론, 디지털 플랫폼, 정부 등 다양한 이해관계자들에게도 유용할 것이다.
오늘날 대부분의 AI 시스템을 움직이는 것은 생성형 AI이다. GAI 시스템은 훈련에 이용된 방대한 양의 자료(텍스트, 이미지, 비디오 등)를 통계적으로 재구성하고, 이용자의 명령(프롬프트)에 따라 결과물을 내놓을 수 있다. 그러한 시스템은 파운데이션 모델(foundation model)(Jones 2023)을 바탕으로 하며, 전 세계에서 현재 수백만 명의 개인과 기관이 이용하고 있다. 챗GPT와 같은 도구는 불과 두 달 사이에 전 세계적으로 월 1억 명의 적극적인 이용자를 끌어모았다.
AI 시스템은 건강과 교육 등 우리 삶의 거의 모든 측면에 수많은 혜택을 제공하지만(Trust et al 2023), 감독과 규제 및 윤리 측면에서는 우려를 낳고 있다. 윤리적 고려사항으로는 인권 원칙에 반하는 행위의 감시, 책임성 있고 편향되지 않은 이용, 지적재산권의 존중, 사회적 영향에 대한 대응 등이 있다(UNESCO 2022a). 일례로, 연구에 의하면 AI 도구와 GAI를 이용해 만든 딥페이크 등이 이용자들이 진짜라고 믿을 정도로 설득력 있는 허위 정보와 혐오 발언을 유포하는 것으로 나타났다(Ngo et al 2023). 그렇게 만들어진 정보는 선거나 공적 협의와 같은 중요한 집단적 의사결정에 심각한 영향을 끼칠 가능성이 있다.
GAI가 일반에 공개된 후 주요 디지털 실험실의 대표들은 슈퍼 AI가 인간을 능가하고 인간의 이해와 가치에 반하는 방식으로 스스로를 프로그래밍하여 인류에 ‘존재론적 위협’을 제기할 수 있다면서 더 늦기 전에 우리 모두 ‘잠시 멈추고’(Future of life Institute 2023) ‘AI 거버넌스’(Open AI 2023)를 수립해야 한다고 주장했다. 감시·감독에 대한 이러한 요청은 규제당국과 여러 이해관계자 집단들이 디지털 플랫폼과 직접적인 대화에 나서는 계기가 되었다.
그러나 다양한 형태의 감독 방식이 고려되는 한편으로 이용자 역량 강화의 관점은 과소평가되고 있다. 이 문제는 미디어·정보 문해성 전략과 정책을 통해 완화할 수 있는데, 사람들이 AI가 제기하는 위험으로부터 스스로를 보호하면서 또한 AI에 따른 기회를 활용하는데 필요한 지식과 기술, 태도, 가치를 기를 수 있도록 지원하려면 그러한 전략과 정책이 필요하다. 모두를 위한 미디어·정보 문해성은 예방적이고 회복적일 뿐 아니라, 일상에서의 AI 이용에 관한 현재의 담론에 시민들이 참여하여 AI 개발에 영향을 끼치고 의도한 결과와 의도하지 않은 결과에 대해 AI에 책임을 물을 수 있도록 해야 할 필요성에도 부응하는 것이다.
미디어·정보 문해성은 갈수록 복잡해지는 커뮤니케이션 환경에서 요구되는 다양하고 변화하는 정보· 디지털·미디어 역량을 포괄하며, 비판적인 사고기술을 비롯한 필수 역량을 통해 사람들에게 힘을 부여한다.
주요 미디어·정보 문해성 역량 7가지
1. 지속가능한 발전과 민주주의 및 인권에서 정보와 디지털 테크놀로지, 미디어가 하는 역할을 이해한다.
2. 온라인 콘텐츠와 그 활용을 이해한다.
3. 효과적이며 효율적인 방식으로 정보에 접근하고 윤리를 실천한다.
4. 정보와 메시지 그리고 GAI를 포함한 정보 출처를 비판적으로 평가한다.
5. 디지털 미디어 포맷과 전통적인 미디어 포맷을 비판적이고 창의적으로 이용하며 적용한다.
6. 성평등, 대화, 허위 정보, 프라이버시 등과 관련하여 정보와 디지털 콘텐츠의 사회문화적 맥락을 이해하며, 혐오와 차별 및 인종주의를 철폐한다.
7. 다양한 집단에서 미디어·정보 문해성 학습을 관리하며 변화에 대응한다.
I. GAI와 합성 미디어에 대한 대응으로써 모두를 위한 미디어·정보 문해성의 시급성
I.1 이것이 왜 중요한가
GAI를 이용할 때는 미디어·정보 문해성이 중요하다. 이용자 친화적이고, 저렴하며, 쉽게 이용할 수 있는 다양한 애플리케이션을 기반으로 정보통신 분야가 급변하면서 사람들이 일상에서 합성 미디어를 이용하고 비인간 에이전트와 상호작용할 수 있도록 가르치고 훈련시키는 일이 중요해졌기 때문이다.
이용자들은 특정 용도를 위해 제작된 협소한 AI에 점점 더 노출되고 있는데(Schlegel and Uenal 2021), 그러한 AI 중 일부는 소셜미디어나 스트리밍 플랫폼과 직접 연관되어 있다. 사람들이 점점 더 GAI에 노출되고 있다. 범용 AI의 일종인 GAI는 대량 언어 모델과 같은 파운데이션 모델을 바탕으로 하는데, 소셜미디어 콘텐츠 등 수백만 건의 문서를 포함한 대량의 데이터베이스로 사전에 훈련을 시키는 것이다(Bryant 2023). 이용자들은 또한 100% 또는 부분적으로 컴퓨터와 데이터 조작을 이용하여 생성된 비디오나 텍스트, 이미지, 음성 콘텐츠를 지칭하는 합성 미디어를 다루어야 할 수도 있다(Stieglitz et al 2022). 미디어와 AI의 발전과정을 보면 두 영역 간의 융합이 증가하면서 디지털 커뮤니케이션 생태학에 또 하나의 거대한 변화가 출현하는 것을 볼 수 있다.
이러한 융합은 특정한 기능적 목적과 관련된 내부 구조를 스스로 수정할 수 있는 인공신경망(Artificial Neural Networks)(Grossi et al 2008)과, 인간 뇌의 구조를 흉내 내는 계층 구조인 딥러닝(Deep Learning)에서 정점을 이룬다(Möeller 2023). 인공신경망과 딥러닝은 이미지 인식과 생성, 텍스트와 이미지 분류, 물체 식별, 데이터 큐레이션, 알고리즘 추천 및 예측과 관련된 영역에서 사용되면서 상당한 발전을 이루고 있다. 따라서 본 정책 브리프에서는 AI와 GAI라는 용어를 같은 의미로 사용할 것이다.
현재 다섯 개의 영역에서 AI가 현실화되고 있는데, 그러한 결과에는 수반되는 문제들이 있으며 미디어 생태계와 미디어·정보 문해성도 이에 영향을 받고 있다. 이 다섯 가지 영역은 고객과의 상호작용(가상 비서), 의사결정(추천 시스템), 분석(오피니언 마이닝(opinion mining), 개인화된 학습), 예측(젠더, 인종, 나이 등), 소통(합성 미디어, 가상현실 체험)이다. 후자의 예로는 GPT(Generative Pre-trained Transformers)라 불리는 인기 있는 GAI 시스템을 들 수 있다. 시중에는 구글(바드(Bard)), 오픈 AI(챗GPT), 마이크로소프트 코파일럿((구) 빙챗(Bing Chat)으로 GPT-4를 이용함), 그리고 비교적 최근에 나온 미드저니(MidJourney), 안트로픽(Anthropic)(클로드 2(Claude 2)), 오픈 AI(DALL·E 2), 스태빌리티 AI(Stability AI)(스테이블 디퓨전(Stable Diffusion)) 등 널리 알려진 브랜드들이 있다. 텍스트 프롬프트를 이용하는 이러한 대화형 ‘AI 비서’들이 여러 가전제품과 각종 정보서비스에 내장되는 추세이다. 일례로, 이러한 AI 시스템들은 이용자의 요청에 따라 브리핑 초안을 작성하고, 스크립트를 쓰고, 실제 사진과 똑같은 허구의 이미지를 생성하는 일들을 한다.
이러한 보편화는 공공재로써의 정보라는 개념에 혁명을 일으켜 지식의 혜택을 늘리기 위해 정보를 증폭시키거나 ‘블랙박스’ 뒤에서 정보를 사유화시킬 수 있다(UNESCO 2021a). 이로 인해 일상에서의 비기술적인 이용 및 매스 미디어, 소셜 미디어, 합성 미디어의 이용과 관련하여 사람들이 시급히 AI 문해성을 습득하도록 도와야 할 필요성이 있는데 그러한 이용이 정보와 교육, 문화에 영향을 끼치기 때문이다. 미디어·정보 문해성은 미디어와 데이터 간의 상관관계를 잘 보여주면서 사람들이 익숙한 방법을 통해 이처럼 급변하는 주제에 대한 지식을 습득하도록 도울 수 있기 때문에 AI 문해성도 미디어·정보 문해성의 범주에 포함된다. 문해성 학습이라는 익숙함을 바탕으로 한 AI 문해성은 완전히 새로운 교육과 업스킬링을 필요로 하는 것이 아니라 학습과 교육의 연속선 상에 자리하기 때문에 교육자와 학습자들이 부담감을 덜 느낄 수 있다.
I.2 공유하는 비전은 무엇인가?
미디어·정보 문해성의 차원에서 GAI에 대응한다는 것은 여러 겹으로 포개어져 있는 문해성(데이터 문해성, 알고리즘 문해성, AI 문해성)의 하위집합으로 AI 문해성을 통합시켜 교육자들과 학습자들이 익숙한 방법을 통해 GAI 문제에 접근하도록 돕는다는 것이다.
AI 문해성은 현재 초기 단계에 있으며 ‘데이터 문해성’과 ‘알고리즘 문해성’의 뒤를 이어 등장하고 있다. 비판적 데이터 문해성(critical data literacy)은 데이터의 이해에 초점을 두면서 프라이버시와 소비자 보호에 집중하는 경향이 있다(Nguyen and Beijnon 2023). 알고리즘 문해성은 콘텐츠의 선택과 조직, 제시 및 인식에 초점을 맞추며(Droguel, Masur and Joeckel 2022) “정보 문해성의 하위집합인 알고리즘 문해성은 알고리즘이 무엇인지, 그것이 정보 시스템에서 인간 행동 데이터와 어떻게 상호작용하는지를 비판적으로 인식하고, 그것의 사용과 관련한 사회적 및 윤리적 문제을 이해하는 것”으로 상정한다(Head, Fister and Macmillan 2020).
일부 문헌에서는 또한 STEM(과학/기술/공학/수학) 전문가들을 대상으로 하는 컴퓨터과학 중심적인 접근법에서 벗어나 AI문해성을 평가하고 있다. 몇몇 연구자들은 이용자들이 효과적으로 AI를 이용하고 학습자 중심적인 AI 테크놀로지와 방법론을 설계하는데 필요한 역량들을 고려했다(Long and Magerko 2020). 미디어·정보 문해성과 가장 직접적으로 연관된 정의에서는 “사람들이 비판적으로 평가하고, 소통하고, AI와 효과적으로 협력할 수 있도록 만드는 일단의 역량들”로 AI 문해성을 규정한다(Hargittai et al 2020). 그러한 경우, AI 문해성 교육은 세계 각지에서 제공되는 수많은 미디어·정보 문해성 교육 및 자원에서 볼 수 있는 것과 매우 유사한 콘텐츠를 포함한다.
포개어진 문해성이라는 개념을 연구하는 학자들은 교육의 시급한 필요성을 강조하면서 어린이·청소년과 성인들이 디지털 공간에서 자신과 자신의 정보를 보호하는데 필요한 지식을 습득하도록 도와주는 알고리즘 문해성 도구와 자원이 부족하다고 지적한다. 교육계는 “(1) 교사들의 AI 지식과 기술, 자신감 부족 (2) 교과과정 설계 부족 (3) 교육 지침 부족”이라는 추가적인 문제가 있다(Su et al 2023).
포개어진 문해성이라는 접근 방식에서는 데이터와 알고리즘 그리고 AI가 강하게 연관되어 있다고 보는 경향이 있다. 또한 데이터에 대한 비판적 사고를 강조하고 정보와 AI 도구의 윤리적 및 사회적 이용을 중시한다는 점에서 미디어·정보 문해성에 포함될 수 있다고 본다. 각각의 문해성을 별개로 간주하는 것이 아니라 미디어·정보 문해성의 한 부분으로 포함시키면 생산 시스템에서부터 이용자들의 소비에 이르는 정보-커뮤니케이션 체인 전체를 포함하게 된다. 이러한 총체적인 접근법은 정보 문화(미디어, 문서, 데이터)를 이용하고, 지식을 쌓고, 자신의 정체성을 형성하고, 선택 결정을 내릴 때 사람들이 느끼는 경험을 다루는 트랜스리터러시(transliteracy)(Frau-Meigs 2012)로써의 미디어·정보 문해성이 갖는 특징이다.
미디어·정보 문해성은, 어린이와 청소년만이 아니라, AI 시스템의 급속한 변화로 인해 일상에서의 이용과 태도, 가치에 영향을 받는 성인들의 경우에도 무엇을, 왜, 가르치고 배울 것인가에 대한 답을 줄 수 있다. 이러한 총체적인 접근법을 위해서는 AI/GAI를 통한 역량 강화 지원에 필요한 자원을 배정하는 공공정책을 입안하고 구현하기 위한 공통된 비전이 있어야 한다.
II. AI/GAI와 미디어·정보 문해성의 기회
미디어·정보 문해성과 관련하여 AI/GAI는 시민 주체성(정보 접근성, 표현의 자유, 합성 미디어의 윤리적 사용 등)과 고용 경쟁력(평생 학습, 창의산업 등)을 증진하여 이용자들의 역량 강화를 지원한다.
미디어·정보 문해성은 시민의식을 제고한다는 이유로 정당화되는 경우가 많았다. 다시 말해서, 시민적 주체성과 미디어·정보의 윤리적 사용을 증진하여 사람들이 사회 문제에 보다 잘 참여할 수 있도록 한다는 것이다. 그러나 미디어의 생산적이고 참여적인 성격으로 인해 미디어·정보 문해성의 정당성에 기여하는 또 다른 측면이 부상했다. 바로 창의성과 인간-미디어-기계의 상호작용을 필요로 하는 급변하는 노동시장에서의 고용 경쟁력이다. ‘직업을 구하고 유지하는 개인의 (인지된) 능력’(Römgnes, Scoupe and Beausaert 2020)을 의미하는 고용 경쟁력은 교육적 준비도에 크게 의존한다. 시민적 주체성과 고용 경쟁력이라는 이 두 가지 측면은 AI/GAI에 의해 크게 변형되며, 그로 인해 미디어·정보 문해성에 대해 생각하고 미디어·정보 문해성을 실행하는 방식을 바꾼다.
GAI 시스템의 급증하는 이용과 상업화 그리고 (소위) 민주화는 비판적이고 창의적인 사고라는 미디어·정보 문해성의 틀 안에서 시민의식과 고용 경쟁력에 기여하는 것으로 간주될 수 있다. 콘텐츠 제작과 확산에 대한 장벽을 낮춰 복사-붙여 넣기에서부터 복사-창작하기에 이르기까지 미디어 자료의 생산에서 창의성을 증진할 수 있다. 또한 챗봇이나 AI 비서와 함께 로봇, 센서, 캡터(captor)와의 상호작용을 높일 수 있다.
그러한 민주화는 정보통신학, 도서관문서학, 저널리즘, 데이터 과학, 창의산업 등 상호연관되어 있는 미디어·정보 문해성의 여러 분야에 영향을 끼친다. 또한 개인화된 디지털 미디어가 부상하여 이용자들이 서로 소통하고, 배우고, 일하고, 즐기는 방식을 바꾸면서 개인과 사회 전반에도 광범위한 영향을 미친다.
II.1 시민적 주체성
GAI 시스템과 서비스에 대한 대응으로써의 미디어·정보 문해성은 음성 인식과 번역은 말할 것도 없고, 정보 검색, 사회적 참여 및 합성 미디어의 이용, 협력적 검증과 어노테이션(annotation) 등 다양한 분야와 관련 정책 영역에서 시민들의 자율성과 이용자들의 주체성을 높일 수 있다(표 1: GAI의 발전과 시민적 주체성을 위한 미디어·정보 문해성).
GAI의 발전 |
정책 영역 |
미디어·정보 문해성 |
정보 검색과 접근성 |
데이터 제어의 품질 |
젠더 관점이 반영된 검색 결과 등 이용자들이 검색에서 다양성을 확보할 수 있도록 역량을 강화한다. |
소셜미디어 참여 |
표현의 자유 |
표현의 자유와 성평등 등 인권과 윤리적 이용을 증진하고 보호하는 역량을 제고한다. |
합성 미디어 제작 |
창의성, 혁신 |
표현의 자유와 성평등 등 인권과 윤리적 이용을 증진하고 보호하는 역량을 제고한다. |
음성 인식, 컴퓨터 비전 |
장애인 접근성, 비차별 |
인간 디지털 테크놀로지 상호작용에서의 장단점을 이해하도록 지원한다. |
음성 텍스트 변환, 텍스트 이미지 변환, 자동 번역 |
포용, 문화간 대화,문화적 다양성 |
매체 간(또는 언어 간) 텍스트 번역에 대한 이해를 높이고, 메시지와 미디어 변경 시 내재된 위험성을 인식하도록 지원한다. |
여러 출처의 교차 참조, 협력적 검증, 어노테이션 |
참여, 기여 |
디지털 테크놀로지가 어떻게 연구를 지원할 수 있는지를 이해하도록 지원한다. 선거 등 국가적으로 중요한 순간에 AI에 의한 문제들을 피할 수 있도록 역량을 강화한다. |
표 1: GAI의 발전과 시민적 주체성을 위한 미디어·정보 문해성
몇몇 유형의 미디어·정보 문해성 행위자들은 그와 같은 AI 강화 및 민주화로부터 혜택을 입을 것으로 보이는데, 대부분 (뉴스, 문서, 데이터 형태의) 정보 과다를 다루는 (공영) 방송사, 기자, 교육자, 사서들이다. 출판사, 방송사, 온라인 미디어 플랫폼은 이용자들이 만든 합성 콘텐츠를 호스팅 하고 배포할 수 있다. 또는 자체 제작한 콘텐츠를 방송하고, AI를 이용하여 검색과 색인 지원, 음성 텍스트 변환 등의 영역에서 그러한 콘텐츠를 뒷받침하며, 여러 채널을 통해 다채널 콘텐츠를 관리할 수 있다.
기자가 하는 일은 복잡하고 사회에서 반드시 필요한 것이다. AI는 여러 가지 방식으로 저널리즘을 지원할 수 있다. 먼저, 대량의 데이터를 관리해야 하는 반복적인 작업에서 벗어날 수 있다. 예를 들어, 지역 날씨예보는 합성 아바타가 할 수 있다. 기자들은 데이터베이스를 이용해 국제탐사보도언론인협회(International Consortium of Investigative Journalists)가 ‘판도라 페이퍼스(Pandora Papers)’ 프로젝트에서 조사한 조세피난처에서의 탈세 행위와 같은 심층적인 동향을 파악하는 등 보다 복잡하고 장기적인 조사를 수행함으로써 독자들에게 보다 나은 서비스를 제공할 수 있다. 또한 디지털 플랫폼과 당국 간의 권력관계를 조사하면서 AI에 관한 비판적 보도에 시민들을 참여시킬 수 있고, 반대로 AI로 인한 디지털 소외와 인권 침해의 위험성에 대해 질문할 수 있다(UNESCO 2023b).
교육자들(교사, 사서, 어린이·청소년 관련 전문가들)은 여러 개의 출처를 교차 참조하고, 협력적으로 검토하고, 주석을 달고, 번역하는 기능으로부터 도움을 받을 수 있는 또 다른 미디어·정보 문해성 집단이다. 기자나 팩트체커(fact checker)들이 사용하는 AI 도구들이 교사와 연구자, 시민사회 활동가들에게로 확대되고 있다. 크로스오버(Crossover, https://crossover.social)와 같은 프로젝트에서처럼 이러한 행위자들은 허위 정보에 맞서 싸우고 시민의식을 증진하는 활동에 점점 더 능숙해지고 있다. 우리는 미디어 정책과 프로그램에 미디어·정보 문해성을 통합시키면 미디어와 저널리즘에 대한 신뢰 회복에 도움이 되고, 그것이 다시 미디어의 생존과 지속 가능성에 기여한다는 사실을 알 수 있다. 또한 소셜미디어 인플루언서들을 참여시켜 GAI의 변화에 대해 긍정적이고 윤리적인 메시지를 내보낼 수도 있을 것이다(UNESCO 2019).
II.2 고용 경쟁력
마찬가지로, 디지털 교육에 미디어·정보 문해성을 포함시키면 온라인상에서 디지털 기업가들의 역량을 높일 수 있다. 예상보다 빠른 속도로 직업에 영향을 받고 있는 세대들은 역량을 업그레이드하지 않으면 소외될 위험에 처해 있다. 그리고 그중 가장 위험에 처한 집단은 여성, 소수집단, 저소득층이다(OECD 2023). 따라서 정보 관리, 비판적 사고, 창의성 등 미디어·정보 문해성이 제공하는 역량은 미디어와 정보통신기술 의존도가 갈수록 높아지는 노동 조건에서의 고용과 훈련 간의 격차를 좁힐 수 있다. 많은 기업과 조직이 디지털 문해성으로의 전환에 대응하는 상황에서 그러한 역량은 업무에서 ICT 기술을 보완할 수 있다. 또한 충분한 정책적 지원이 있다면 빈곤과 박탈 및 소외의 척결과 포용 증진에 기여할 수 있다.
GAI 시스템과 서비스에 대응하는 미디어·정보 문해성은 고등교육, 온라인 학습, 창의산업 등 다양한 분야와 관련 정책 영역에서 사람들의 고용 경쟁력을 높일 수 있다(UNESCO 2023b). 미디어·정보 문해성 교육은 합성 미디어의 영향을 받는데, 신테시아(Synthesia)나 픽토리(Pictory)와 같은 AI 비디오 제작 플랫폼에서 본 것처럼 AI 시스템이 학습과 온라인 학습의 ‘미디어화’를 돕기 때문이다.(표 2: GAI의 발전과 고용 경쟁력을 위한 미디어·정보 문해성)
발전 |
정책 영역 |
미디어·정보 문해성 |
학습 분석 |
평생학습, 지속적인 교육 |
데이터 권리, 보호 및 구제에 대한 인식을 지원한다. 학습 문제를 조기에 발견한다. |
교육 방법론: 데이터 시각화, 아바타, 게임화 |
커리큘럼 설계, 교사와 학습자를 지원하는 강의 설계 |
추론, 원인, 결과에 기반하여 다양한 미디어를 통해 논리적인 학습을 지원한다. 공식 및 비공식 환경을 연결하는 상호작용을 통해 학습한다. |
다양한 유형의 학습자들 간의 가변성 |
포용, 다양성 |
모두를 위한 미디어·정보 문해성과 디지털 역량을 시급히 구축해야 할 필요성을 강조한다. |
강화된 피드백 |
참여, 기여 |
디지털 활동에 대한 비판적 분석을 독려한다(얻는 것과 잃는 것). 미디어·정보 문해성 콘텐츠와 일반 콘텐츠를 공동제작하는 활동의 유용성을 강조한다. |
다수의 맞춤형 교수법 |
교육, 평생학습 |
개인의 배경과 경험이 메시지 및 미디어에 영향을 끼치는 방식에 대한 인식을 증진한다. (미디어·정보 문해성 등) 학습 프로젝트의 공동 설계를 제고한다. |
음악 및 비디오 콘텐츠 제작용 플랫폼 |
창의산업, 문화 |
문화에서 이용자 개입과 참여 확대를 증진한다. 청중과 여성 참여를 제고한다. |
표 2: GAI의 발전과 고용 경쟁력을 위한 미디어·정보 문해성
몇몇 유형의 미디어·정보 문해성 행위자들은 교육과 문화 영역에서의 AI 발전으로부터 혜택을 볼 수 있다. 초중등학교와 대학교의 미디어·정보 문해성 교육자들은 학습자들이 합성 미디어를 접했을 때 그것을 알아차리도록 교육시킬 수 있다. 이를 위해서는 원하는 결과물을 도출하도록 쿼리를 설계하는 기술인 프롬프트를 마스터하도록 가르쳐야 할 것이다. 학습자들은 미디어·정보 문해성 강의 설계에서 자주 사용하는 것과 같은 교육학습용 도구를 직접 이용해 보는 적극적인 학습법을 통해 AI가 제작한 콘텐츠를 접해볼 수 있다. 디지털 근무환경에서는 지속적인 업스킬링이 필요하다는 사실을 학생과 교육자들이 인식하도록 함으로써 고용 경쟁력을 높일 수 있다.
예술가와 디자이너 그리고 텔레비전과 영화 및 게임 업계의 창의적인 작업자들은 뇌의 가시성과 가독성을 제공하는 AI 시스템으로부터 창의적인 관점을 얻을 수 있다. AI 시스템에 의해 기억과 상상력 그리고 매우 포용적인 방식으로 이용자들과 연결하는 능력이 새롭게 정의될 수 있다. 일례로, AI 글쓰기 앱은 맞춤화를 통해 이용자가 (자신이 작성한 작문 샘플을 바탕으로) 자신의 온라인 콘텐츠를 개선하도록 도와준다. 팔레트를 알고리즘과 스크린으로 바꿔 합성 미디어 아트와 픽션을 만들 수 있고, 초보자들은 문화 생산과 소비에 대한 접근성을 확보할 수 있다.
이처럼 미디어·정보 문해성의 대응이 다른 것은 전문가와 이용자들이 다양한 미디어에 적응해야 하고, 솔루션이나 경험, 도구가 달라지면 이용자의 대응도 달라져야 한다는 사실을 보여준다. 문화기관과 교육기관은 이러한 상황에 발맞춰 발전하면서 필요 인력의 부재를 예방하고 보다 많은 사람들이 접근할 수 있는 창의적인 형태의 기여와 콘텐츠 생성을 지원할 필요가 있다. 학교와 도서관, 박물관 그리고 직장에서는 STEM과 비STEM 영역 간의 격차, 인류의 개념이 가장 중요한 인문예술 분야에서의 디지털 격차에 대응하는 미디어·정보 문해성을 제공할 수 있다.
III. AI/GAI가 제기하는 문제와 위험성
미디어·정보 문해성의 측면에서 볼 때 GAI는 (허위 정보, 감시, 프라이버시, 윤리 등의 문제에 관한) 시민의식을 약화시키고 (유사 과학, 출처 신뢰성, 저작권, 지적재산 등) 고용 경쟁력을 저해함으로써 이용자들의 역량을 약화시킬 위험이 있다.
III.1 시민적 주체성
GAI와 관련된 한 가지 주된 우려는 GAI가 이해과정 없이 단순한 컴퓨터 계산으로 알고리즘 실험이 실행되는 기술이라는 점이다. 이것은 이해하려는 욕구가 주된 동력으로 작용하는 인간 지능 실험과는 대조적이다. 합성 미디어와 관련한 또 한 가지 우려사항은 창작 행위가 글을 쓰고 시각화할 때 수반되는 사고과정이나 감정과 분리되어 있다는 것이다. 그러한 창작과정에 들어가는 인간의 지식 구축 및 전달 노력은 사라져서도 안되고 과소평가되어서도 안된다. GAI 시스템은 처음부터 그러한 가치를 염두에 두고 설계되어야 하며, 보편적인 인권 원칙을 따라야 한다.
정보와 관련한 주된 위험은 GAI를 통해 제작 및 유포되는 허위정보이다. 이 과정은 추적 불가능한 딥페이크를 통해서 클릭 한 번으로 자동화될 수 있다. 그러면 성적 및 인종적으로 편향된 콘텐츠를 생성하여 기존의 성고정관념과 인종차별적 관념을 강화시키는 것과 같은 다른 문제들이 발생할 수 있다(Ngo et al 2023). 젠더화된 허위 정보와 그것의 부정적인 영향(United Nations 2023), 뉴스 콘텐츠의 개인화(Van Drunen et al 2022), 혐오 발언(Henderson et al 2023), 리벤지 포르노(Garon 2023), 데이터 유출(Wach et al 2023) 그리고 부정 선거(Srivastava et al 2023)나 대규모 감시와 같은 집단적인 위험을 부추기는 요소들도 우려된다. 이러한 측면에서는 미디어·정보 문해성을 통한 대응이 인권 보호와 겹치는 경향이 있다.
GAI에 대응하는 미디어·정보 문해성은 표현의 자유, 데이터 프라이버시, 상업적 집중과 감시 등 다양한 분야와 관련 정책 영역에서 이용자들의 주체성을 증진할 수 있다(표 3: GAI의 위험성과 미디어·정보 문해성을 통한 대응). 이러한 문제들은 AI 이전에도 있었으나, GAI에 의해 더욱 악화되었으며 대응하기도 어려워졌다(UNESCO 2023c).
위험성 |
정책 영역 |
미디어·정보 문해성을 통한 대응 |
존재론적/증식 |
지정학적 경쟁 윤리 |
자체 관리 및 공동 관리를 강조한다. 성평등과 같은 가치를 고려한다. |
집중/독과점 |
디지털 생태계에서 공정한 경쟁의 부재와 그로 인한 다원주의의 부재 |
정보와 디지털 기술에서 다양성과 다원주의의 중요성을 강조한다. |
스팸, 원치 않는 광고 |
양질의 데이터와 콘텐츠 부재 |
이용자들이 구제 받는 방법과 행위자들에게 책임을 묻는 방법을 알도록 한다. |
뉴스 콘텐츠의 개인화 |
다양성 부재 |
필터 버블(filter bubble)과 에코 체임버(echo chamber, 온라인 공간에서 특정 목소리만 메아리치며 증폭되는 현상)에 대해 경고한다. |
허위정보/딥페이크 |
신뢰 상실, 표현의 자유와 신뢰성 있는 정보에 대한 접근성 상실 |
다양한 사실확인 전략을 배우도록 지원한다. |
알고리즘 편향 |
인종차별주의, 사회적 조작, 불평등, 차별 |
이용자들이 편견을 알아보도록 교육시킨다. 어떤 편견은 알고리즘에 내재되어 있어 그러한 편견을 완화시키는 테크닉이 필요하다. |
혐오 발언과 사이버 괴롭힘 |
명예훼손, 표현의 자유 상실 |
가짜를 식별하도록 돕고, 반론을 제공하며, 표현의 자유와 대화, 관용, 윤리를 수호한다. |
리벤지 포르노 |
시각적 낙인과 폭력, 프라이버시 침해 |
자체 관리 및 공동 관리, 규제를 바탕으로 한 이용자 구제를 강조한다. |
부정 선거 |
민주주의 훼손, 유권자 신뢰의 상실 |
이용자 인식과 참여, 신호 전달, 검증, 보호를 가능케 한다. |
데이터 유출 |
개인정보 침해, 자동화로 인한 실직 |
데이터 권리 인식, 개인정보 보호 기술, 구제 방법을 통해 역량을 강화한다. |
대규모 감시 |
프라이버시 침해, 보안의 상실, 검열 |
인식, 독립성, 투명성을 촉진한다. |
환경적 영향 |
지속가능한 발전 |
AI 소재에 의해 야기되는 공해에 대한 인식을 제고한다(광물, 칩, 데이터 서버 등). |
표 3: GAI의 위험성과 시민적 주체성을 위한 미디어·정보 문해성
허위 정보를 생성하거나 유해 행동을 하라는 명령을 AI 시스템이 단 한 번의 오류도 없이 거부하도록 훈련시킬 수 있는 방법은 없다. 연구자들은 AI 시스템에서 의도치 않은 반응(탈옥)을 유발하는 쿼리가 있을 가능성을 보여주면서 대형 언어 모델 제공자들이 설치한 보호 장벽을 AI 시스템이 우회할 수 있음을 입증했다(Zou et al 2023). 이러한 상황에서는 기자와 교육자, 미디어 문화 참여자 등 미디어·정보 문해성 행위자들이 자신이 이용하는 콘텐츠에 대해 확신을 갖지 못하며 안전장치의 부재로 인해 위험에 노출된다. 결과적으로, AI가 사회적 결속과 집단적 권리를 저해할 수 있다. 신뢰가 저해되고 합성된 에코 체임버로 인해 양극화가 증폭되면서 이용자 참여와 주체성 역시 위험에 처한다.
미디어·정보 문해성 행위자들은 이용자 역량을 강화시키기 위해 다양한 방식으로 대응하고 있다. 일례로, AI 추적센터를 통해 합성 미디어를 모니터링하는 뉴스가드(Newsguard)와 같은 미디어 감시기구를 이용할 수 있다. 2023년 9월 현재 뉴스가드는 인간의 감독을 거의 받지 않고 AI가 제작한 뉴스와 정보 사이트를 450여 개 확인했다(https://www.newsguardtech.com). 뉴스가드는 또한 미디어·정보 문해성 증진을 위해 자사의 도구들을 학교와 공공도서관 등에 제공한다.
신문사들은 자사의 AI 지침을 공개하거나 AI 도움을 받은 콘텐츠를 표시하고, 이용자들은 AI 이용방침을 투명하게 공개한 미디어를 선택할 수 있을 것이다(Shane et al 2021). 이와 같은 윤리적 기준의 필요성에 부응하여 ‘AI 관련 파트너십(Partnership on AI)’이 수립되었다. 그리고 이 파트너십은 테크 플랫폼, 시민사회, 언론, 학계와 협력하여 책임성 있는 합성 미디어의 개발과 사용을 지원하기 위한 권고사항으로써 ‘합성 미디어에 관한 책임성 있는 관행(Responsible Practices for Synthetic Media)’을 발표했다(Partnerships on AI 2023).
또한 챗GPT를 추적하는 GPTZero와 같이 AI를 탐지하는 AI 시스템 등 역공학(reverse engineering) 솔루션이 도움이 될 수 있다(https://gptzero.me/). 기자와 팩트 체커, 데이터 애널리스트로 구성된 팀에서는 허위 정보와 (소셜미디어를 통해 허위 정보를 유포하는) 가계정을 통한 조작 행위(Coordinated Inauthentic Behaviour)에 맞서는 AI 도구들을 개발했다. 일례로, Vera.ai는 오디오 포렌식, 거짓임이 드러난 콘텐츠 모음 등 다양한 서비스를 제공하는 AI 딥페이크 탐지 도구이다(https://www.veraai.eu/). 이용자들은 또한 핀란드 헬싱키대학교(University of Helsinki)가 170개국 참가자들로부터 자문을 받아 제작한 ‘AI의 요소들(Elements of AI)’(elementsofai.com)과 같은 국제적인 온라인 강의를 통해 역량을 강화할 수 있다. 유네스코는 25개 언어로 제공되는 ‘AI 시대의 인권 수호(Defending Human Rights in the Age of AI)’(https://www.edapp.com)라는 강의를 제공한다. 또한 ‘미디어·정보 문해성을 갖춘 시민들: 비판적으로 사고하고, 현명하게 클릭한다(교육자와 학습자를 위한 미디어·정보 문해성 커리큘럼)(Media and Information Literate Citizens: Think Critically, Click Wisely (Curriculum for Educa- tors and Learners))’에서는 미디어·정보 문해성과 AI를 위해 특별히 고안된 모듈을 제공했다(UNESCO 2021c).
III.2 고용 경쟁력
고용 경쟁력과 관련하여 GAI가 갖는 위험성은 규정하기가 좀 더 까다롭다. 그러한 위험성은 교육에 사용되는 정보의 품질(유사 과학, 학위와 자격증의 유효성에 영향을 끼치는 표절 등)과 관심경제가 이용자들에게 미치는 영향과 같이 직접적인 것일 수 있다. 또는 STEM 분야와 반대로 역량과 업스킬링의 부재 및 인문학의 평가절하로 인해 창의산업에서 간접적으로 나타날 수 있다. 데이터 수집, 직장에서의 감시와 프라이버시 부재, 자동화로 인한 실직과 이직 위협 등 근로조건에도 영향이 있을 수 있다. 유네스코는 ‘AI가 여성들의 일하는 삶에 끼치는 영향(Effects of AI on the working lives of women)’이라는 제목의 보고서(UNESCO 2022b)에서 AI 음성 비서는 언제나 젊은 여성으로 상정된다고 지적하면서 성격차가 커질 수 있다고 우려했다.
GAI로 인해 구직시장의 변화가 가속화되면서 근로자들은 교육과 평생학습을 통해 새로운 디지털 기술을 습득할 것을 요구받고 있다. 비판적, 시민적, 창의적 사고 역량의 부재로 인해 사람들이 무능력해지고 빈곤과 소외의 덫에 갇힐 수 있다. 또한 유사 과학, ‘AI 환각’(Wach et al 2023), 허위 정보(Lo 2023)가 스며들어 있는 정보 오용의 문제가 있고, 표절 및 저작권 침해 행위(Vincent 2022)는 뉴스나 데이터, 문서 이용과 관련한 윤리적 태도의 획득을 어렵게 할 수 있다(표 4: GAI의 위험성과 고용 경쟁력을 위한 미디어·정보 문해성).
위험성 |
정책 영역 |
미디어·정보 문해성을 통한 대응 |
로봇과 자동화 |
실직, 이직 |
이점과 한계에 대한 인식과, 모니터링 및 평가의 필요성에 대한 인식을 증진한다. |
직업 검색 및 채용 편향성 |
성불평등, 고정관념 |
정보와 콘텐츠에 포함된 성차별과 고정관념을 알아볼 수 있도록 사람들의 역량을 강화한다. |
업무 실적 모니터링 |
성불평등, 프라이버시 부재 |
성격차와 뿌리 깊은 고정관념을 찾아내도록 돕고, 데이터 프라이버시에 대해 경고한다. |
표절 |
학술적 진실성 부재 |
정보와 디지털 기술의 윤리적 사용을 강조한다. |
AI의 환각과 오류 |
연구와 교육 |
자체 관리와 공동 관리를 강조하고, AI에 대한 장미빛 환상과 신화에 저항한다. |
유사 과학 |
연구와 교육 |
기초적인 과학 문해성과의 연계를 통해 과학적 조사에 대한 신뢰를 강화한다. |
출처의 신뢰성 |
공정한 경쟁의 부재 |
평가하고 정보 라이프사이클에 참여할 수 있는 능력을 강조한다. |
지적재산 및 저작권 |
저작권 도용, 정당한 보상의 부재 |
저작권의 윤리적 사용과 증진 및 지적재산권 존중을 독려한다. |
표 4: GAI의 위험성과 고용 경쟁력을 위한 미디어·정보 문해성
미디어·정보 문해성 행위자들은 그러한 위험성에 다양한 방식으로 대응하고 있다. 양질의 정보와 건전한 온라인 환경이라는 측면에서는 출처 신뢰성이 비판적인 글쓰기, 사실 확인, 신뢰할 수 있는 색인과 관련된 미디어·정보 문해성 이슈가 되었다. 출처의 신뢰성은 학계와 언론 등 다른 분야에서의 학습과 검색, 조사연구에 대한 신뢰를 구축하는데 매우 중요하다. 신뢰할 수 있고, 증거에 기반한, 검증된 콘텐츠를 생산할 수 있는 능력이 없다면 출처 신뢰성이 고용 경쟁력에 직접적인 영향을 끼칠 수 있다.
교사나 사서, 편집자, 출판가들은 AI 도구의 이용을 명확하게 설명하고 적절한 인과관계를 제공하는데 도움이 되는 신뢰할 수 있는 시스템이나 기준이 없다는 사실을 우려하고 있다. 그러나 GAI는 증거를 기술하는 기존의 두 가지 방식(1차와 2차 출처)과 구분하고 부분적인 AI 제작 또는 100% AI 제작임을 보여줄 방법을 찾기 위해 1차 출처와 2차 출처를 넘어서 ‘3차 출처’라고 할 수 있는 또 하나의 출처 계층을 만든다. 제작이나 공유 목적의 이용이 허용되는 합성 콘텐츠의 유형이 무엇인지를 알려주는 콘텐츠 라벨이나 워터마크, 컨텍스트 노트(context note) 등 일부 솔루션이 제공되고는 있지만 대부분은 디지털 플랫폼들이 개별적으로 제공하는 것이고, 모든 플랫폼에 공통으로 적용되는 기준은 없다.
출처 신뢰성과 진실성이라는 문제는 저작권 침해와 관련된 또 다른 우려를 낳고 있는데, AI 시스템의 훈련에 사용된 콘텐츠가 해당 콘텐츠 창작자들의 명시적인 동의 없이 사용되어 창작자들이 들인 시간과 경험에 대한 보상이 이루어지지 않았다는 점이다. ‘AI 생성 이미지를 거부한다(No to AI generated images)’ 캠페인이나 미국작가조합(Writers Guild of America)의 전례 없는 장기 파업에서 드러난 것처럼 창의산업 종사자들은 저작권과 지적재산권의 문제를 제기하면서 그러한 문제가 창작자들의 직업과 경력에 끼치는 부정적인 영향과 공정한 보상 없이 자신들의 창작물이 남용될 것을 우려하고 있다.
이러한 윤리적인 문제들도 미디어·정보 문해성의 한 부분인데, 정보와 지식사회에서는 창작물이 공정한 보상을 기반으로 한 활동이며 특히 미래의 고용 경쟁력 측면에서 이 문제가 중요하다는 사실을 차세대의 미디어 이용자들이 이해할 필요가 있기 때문이다. 건전한 커뮤니케이션 시스템과 공공재로써의 정보를 증진하기 위해서는 지적재산권 보호와 출처 신뢰성이 매우 중요한 문제이다.
IV. AI/GAI와 관련한 이용자 역량 강화를 위해 고려해야 할 미디어·정보 문해성: 이용자 인식과 역량
미디어·정보 문해성은 디지털 격차, 디지털 성격차, AI 집중과 소유권, AI에 대한 환상, 합성 미디어 및 비인간 에이전트∙로봇과의 상호작용 등 다양한 이슈들에 대한 비판적 및 창의적 사고를 바탕으로 한 이용자 인식을 강화할 수 있다.
미디어·정보 문해성 전략은 의도적으로 또는 의도치 않게 유해한 콘텐츠를 생산하고 (인류의 가치와 인권에 위배되는) 유해한 행동을 실행하도록 훈련된 AI의 위험성에 대한 인식을 증진할 필요가 있다. 그러한 전략은 모두에게 가해지는 위험과 민주사회 및 인간 자율성에 대한 위협을 방지하기 위해 인권 원칙을 지지하고 이용자의 시민적 주체성을 보호하는 것이다. GAI로 인해 현재 야기되고 있는 그리고 앞으로 야기될 문제들에 대해 미디어·정보 문해성 측면에서 어느 정도의 준비성을 갖추기 위해서는 사람들의 민감성을 높이는 집중적인 캠페인을 수행할 수 있는데, 이때 번역과 로컬라이제이션(localization)을 가능케 하는 AI 도구와 플랫폼을 이용할 수 있을 것이다. 대규모 온라인 강의 등을 통해 광범위한 미디어·정보 문해성을 제공하면 연령과 국적을 불문하고 많은 사람들의 역량을 강화할 수 있을 것이다. 궁극적으로, AI와 관련된 미디어·정보 문해성은 초중등 교육에서 기본 문해성으로 간주하여 아동과 청소년들이 디지털 환경에서 생활하고, 배우고, 일하고, 창작하는데 필요한 기술을 습득할 수 있도록 해야 한다.
또한 성인지적이고 변혁적인 개입을 증진하는 성평등 중심의 미디어·정보 문해성 교육과정(특히 AI가 생성한 성적 편견을 척결하기 위한 인식 증진 자료)을 설계하고 실행하려는 노력이 아직까지 크게 미흡하다. 또한 ‘정말 부끄러운 상황이다’(UNESCO 2019)라는 발언에서 알 수 있듯이 이러한 현실은 디지털 기술 교육에서도 마찬가지이며, 최신 AI 문해성 강의들에서도 지속되고 있다. 이용자들은 AI 개발과 이용에서의 남녀 참여율 격차를 이해하고 거기에 문제를 제기할 수 있어야 한다(UNESCO 2020). 미디어·정보 문해성은 AI의 젠더 관련 문제에 대한 인식을 증진하고, 여성 역량 강화를 위해 AI의 바람직한 적용과 활용을 옹호하도록 시민들의 역량을 강화한다.
미디어·정보 문해성에 기반한 AI 역량 프레임워크를 설계할 때는 교육자와 정책입안자들이 개입의 영향을 평가하고 평가 기준을 확립할 수 있도록 지식, 기술, 태도, 가치라는 네 가지 범주를 중심으로 AI/GAI와 관련한 미디어·정보 문해성 역량을 구체적으로 명시해야 한다.
미디어·정보 문해성에 기반한 AI 역량 프레임워크
1. 지식: AI 식별(잠재성과 위험성), AI의 지정학 인식(행위자, 소유권, 동기), 결과의 평가, 정보 혜택(대량 언어 모델, 챗봇, AI 비서 등)과 정보 장애(혐오 발언, 허위 정보 등)에 대한 대응 확립, GAI 시스템의 생태학적 영향 감시.
2. 기술: AI 도구의 책임성 있는 사용, 웹사이트와 양질의 데이터베이스 탐색, 검색엔진 비교, 매스 미디어와 소셜 미디어 및 합성 미디어의 구별, 비인간 에이전트 및 객체와의 상호작용, 정보 출처의 선별 및 검증, 사본 생성 도구와 프롬프트 이용 숙달.
3. 태도: 데이터 해석과 이용 및 알고리즘 효과에 대한 비판적이고 창의적인 해석, 유해 콘텐츠(폭력, 혐오 발언, 포르노, 허위 정보 등)의 식별과 신고, 시스템적 위험(조작, 급속한 유포(바이럴), 자동성, 데이터 프라이버시, 데이터 유출 등) 방지, 자신의 선입견과 표현 등에 대한 인식, 허위 정보에 대한 반론 구축 및 다른 사람들과의 소통.
4. 가치: 표현과 의견의 자유 옹호, 성평등 증진, 프라이버시와 참여 및 지적재산권 지지, 양질의 정보와 데이터베이스 증진 활동 참여, 대규모 감시 반대, 안전과 웰빙 증진.
V. AI/GAI 거버넌스에 맞선 미디어·정보 문해성의 증진과 보호: 공공정책 차원의 대응
미디어·정보 문해성은 설명 가능한 AI의 모니터링 및 정책 수립에 이용자들이 적극적으로 기여하도록 하고, 보다 나은 AI 거버넌스와 건전한 지식사회의 수립을 위해 다른 이해관계자들과 대화하도록 독려함으로써 정책적 대응과 원칙을 지원할 수 있다.
AI 안전성과 관련하여 디지털 플랫폼들이 많은 진전을 이루기는 했으나 장착된 안전장치들이 의도적으로 또는 의도치 않게 훼손되고 비윤리적으로 이용될 수 있다. 인간의 감독과 통제의 부재로 인해 컴퓨터 테크놀로지와 그것을 옹호하는 기관 및 행위자들, 전문 미디어 기관과 기타 거버넌스 기관(정부, 국가, 국제기관 등)에 대한 심각한 불신이 조장될 수 있다. 현재 AI 플랫폼과 테크 기업들이 공동 규제에 저항하거나 찬성하는 상황에서 국가적 및 국제적인 차원에서 AI 거버넌스 정책 프레임워크들이 수립되고 있다.
다수의 이해관계자가 참여하는 거시적인 관점에서 다양한 프레임워크가 수립되고 있다. 유엔은 사무총장이 발의한 ‘디지털 협력 로드맵(Roadmap for Digital Cooperation (A/74/821))’의 일환으로 ‘AI에 관한 다중 이해관계자 자문기구(Multistakeholder Advisory Body on Artificial Intelligence)’를 수립하는 중이다. 그 목적은 AI에 관한 국제적 거버넌스를 위한 권고를 마련하는 것이다. 유네스코는 ‘플랫폼 거버넌스에서 표현의 자유와 정보 접근성 보장을 위한 지침: 다중 이해관계자 접근법(Guidelines for Safeguarding Freedom of Expres- sion and Access to Information in the Governance of Platforms: A multistakeholder approach)’을 개발하고 있다(UNESCO 2023d). 이 지침에 포함된 이용자 역량 강화 섹션은 ‘디지털 플랫폼 전략 계획과 정책 및 제품에서 미디어·정보 문해성을 통합시키기 위한 다중 이해관계자 행동계획(Multi-stakeholder Action Plan to Integrate Media and Information Literacy in Digital Platforms Strategic Plans, Policies and Products)’의 개발을 통해 실현되고 있다(UNESCO 2023e, 미발행).
(유네스코의 프레임워크를 제외하고) 대부분의 프레임워크는 위기관리와 투명성에 초점을 맞추며, 인간 중심적으로 AI를 사회에 통합하는 한 방식으로써 교육을 광범위하게 언급하고 있으나 구체적인 기금 제공과 실천 방법은 제시하지 않으면서 미디어·정보 문해성 교육 문제를 간과하는 경향이 있다. 이러한 프레임워크 중에서 이용자 역량 강화와 가장 유사하고 미디어·정보 문해성과 가장 연관되어 있는 원칙들은 책임성 및 설명 가능성(explainability)과 연결되어 있다. 그러한 원칙은 AI가 AI 거버넌스에 제기하는 위험성(의도치 않은 결과로 인한 거버넌스의 악화, 내적 불안정성, 그리고 정부의 결정권을 로봇과 로봇을 조종하는 인간들에게 양도하는 등 인간에 대한 실존적 위협)에 대응하기 위한 견제와 균형을 제공할 가능성이 가장 높다.
이용자들을 위한 설명 가능성 요건의 중요성이 부상하고 있다. ‘AI 설명 가능성(Explainable Artificial Intelligence, XAI)’은 특정한 이용자 범주에서 이해할 수 있는 형태로 기술적인 정보를 제공하여 이용자들이 자신의 필요에 부합하는지를 확인할 수 있도록 함으로써 ‘블랙박스’ 신화와 ‘지능’ ‘환각’ 등 AI에 대한 의인화된 환상을 바로잡는다(Sajid et al 2023). XAI는 감사와 평가 지표의 기반을 마련할 수 있는 구체적인 설명을 제공한다. 그래서 이용자나 연구자, 거버넌스 기구, 감사 기구 등이 공정성, 평등, 다양성, 안전, 프라이버시와 같은 원칙이 적용되도록 하고 그러한 원칙이 적용되지 않을 경우 효과적인 (사법적 및 비사법적) 구제책의 청구와 같은 조치를 취할 수 있는 수단을 제공할 수 있다.
설명 가능성은 이용자들이 그동안 어렵게 생각해 왔던 투명성과 책임성 문제를 이해하도록 도와준다. 따라서 미디어·정보 문해성에서 개념 범주에 설명 가능성을 추가할 수 있다(Ananny and Crawford 2018). 설명 가능성은 또한 비인간 도구 및 객체와의 상호작용이라는 개념과 더불어 미디어·정보 문해성 커리큘럼 디자인에도 도입될 수 있다(Long and Magerko 2020). 이와 같은 AI/GAI 거버넌스 원칙은 또한 다양한 산업 및 사회 부문에서 지침과 표준의 형태로 주류화되어야 한다. 일례로, 영국 정보위원회(Information Commissioner’s Office)는 ‘AI로 내린 결정의 설명(Explaining Decisions Made with AI)’에 관한 지침을 발표하면서 데이터 사용, 설계의 공정성, 안전, 영향을 특별히 언급했다.
그러나 이러한 프레임워크는 시민들이 그 존재와 의도된 효과를 모르거나 적극적으로 활용하지 않는다면 그 효과가 제한적이고 지속성도 없으며 AI 감시자로서의 역할도 하지 못할 것이다. (미디어·정보 문해성 공동체에 참여하는 사람들과 같은) 이용자 대표와 시민사회 전반이 GAI의 규제 메커니즘에 포함되어야 한다. 이들은 AI 거버넌스와 관련하여 지역과 국가 및 국제적 차원에서 진행되는 논의에 참여할 수 있으며, AI 거버넌스의 이행과 구현 및 모니터링에서 중요한 자원으로 간주될 수 있다.
정부의 규제당국들은 현재 AI의 관리와 감독을 맡아 적절히 규제할 준비가 안되어 있는 상황이다. 또한 규제의 위험성, 행동하지 않음으로 인한 위험성 또는 실행과 집행의 부재로 인한 위험성이 있다. 공공정책 입안자들은 최신 AI의 발전에 대해 학습하고, 적절한 안전장치와 모니터링 도구를 적용할 수 있도록 보다 적극적인 조치를 취해야 한다. 이러한 인식을 바탕으로 아프리카의 32개 국가는 유네스코에 정책 기준 확립과 역량 구축을 지원해 줄 것을 요청했고, 그 결과 ‘의사결정자들을 위한 AI 툴킷(a decision maker’s toolkit of AI)’이 마련되었다(UNES- CO 2023e). 공무원과 정책 입안자들도 미디어·정보 문해성 교육과 자원으로부터 도움을 얻을 수 있다(UNESCO 2021c). 유네스코는 또한 절실히 필요한 교육을 지원하기 위해 ‘정책 입안자들을 위한 미디어·정보 문해성 심화학습(Deep Dive for Policymakers in Media and Information Literacy)’이라는 대규모 오픈 온라인 강좌를 개설했다(UNESCO 2023f).
결론 정책 입안자들은 AI 관리감독과 관련한 모든 범주를 포용해야 하는데, 이것은 AI 창시자들도 요구한 바이다. 그러한 관리감독은 다음을 통해 증진될 수 있다. 1. 신뢰할 수 있는 AI를 위한 안전장치와 지침을 수립하고 모니터링한다. 2. 개발된 미디어·정보 문해성 역량에 대해 이용자들을 교육시킨다. 3. 설명 가능성과 관련 데이터 세트를 통해 정보 품질을 유지한다. 4. 인간 중심적인 제어는 계속해서 인간이 관리하며, AI의 목표를 인권에 맞추고, 환경 위기나 디지털 격차와 같은 인류의 시급한 문제들에 AI 시스템을 집중한다. |
교육과 인식 증진의 책임을 개인에게 전가해서는 안되며, AI/GAI 시장에 대한 체계적이고 구조적인 변화가 수반되어야 한다. 정부는 이용자 어드보커시를 지원하여 공정한 경쟁을 증진하고, 잠재적으로 지정학적 갈등이 발생할 가능성을 예방하고, 데이터 프라이버시 관련법이 효과적으로 시행되도록 해야 한다. 정부는 또한 GAI 개발자들이 시스템 설계에서 프라이버시와 책임성, 안전과 같은 윤리적 요소들을 우선적으로 고려하게 해야 한다. 정부는 사회적 조작과 감시를 제한하여 정보와 데이터에 대한 이용자들의 신뢰와 선의를 회복시켜야 한다. 또한 합성 미디어를 이용하는 사람들과 공동체의 안녕에도 관심을 기울여야 한다.
미디어·정보 문해성이라는 렌즈를 통해 AI를 보면 어떻게 AI 거버넌스를 다루고 미디어와 정보에 대한 신뢰를 회복할 것인가에 대한 새로운 관점을 얻을 수 있다. 데이터와 알고리즘, AI의 이점을 활용하면서 동시에 정보 품질과 투명성에 대한 부정적인 영향을 방지하는 민주사회의 역량을 구축하기 위해서는 시민들의 주체성과 회복력을 높이는 것이 결정적인 열쇠이다. 그러한 교육을 일상에서의 문제해결 활동에 연결시키면 중요한 알고리즘과 AI 개념을 통합하는 보다 합리적인 실천으로 이어질 수 있다. 전체 시민을 대상으로 한 미디어·정보 문해성 교육은 모든 것을 처음부터 시작할 필요 없이 역량과 파트너십의 구축에 기여할 수 있다. 미디어·정보 문해성은 기술인과 비기술인들이 능숙하고 안전하며 윤리적인 방식으로 AI를 이용하는데 필요한 기본 개념을 숙지하도록 교육시킴으로써 STEM과 비STEM 분야 사이에서 해답을 제공하여 디지털 격차를 줄일 수 있다.
궁극적으로, 인류의 목표는 집단 지성을 갖춘 실행 가능하고 지속 가능한 지식사회, 즉 시민들의 미디어와 정보 문해성 보장이 매우 중요하게 간주되는 환경을 구축하는 것이다.
미디어·정보 문해성, AI 문해성, AI 거버넌스를 위한 10개의 핵심 권고사항 정책 입안자들은 AI 관리감독과 관련한 모든 범주를 포용해야 하는데, 이것은 AI 창시자들도 요구한 바이다. 그러한 관리감독은 다음을 통해 증진될 수 있다. 1. 허위 정보, 혐오발언과 관련하여 성평등과 반인종차별을 강조하면서, 인간 중심적이고 총체적인 미디어·정보 문해성이라는 기본적인 관점에서 초중등교육 AI 문해성 기본 핵심 커리큘럼의 포괄적인 원칙을 수립하기 위한 고위급 모임을 소집한다. 2. 교육, 문화, 성평등, 아동청소년 관련 부처와 당국은 교육자와 학습자를 위한 적절한 보호장치를 마련하고 AI 문해성 프로그램의 관리 및 평가를 위해 미디어·정보 문해성/AI를 위한 전략적 우선과제를 개발한다. 3. 미디어·정보 문해성 설계와 정책에서 설명 가능한 AI의 기준과 지침을 반영하고, 에듀테크(EdTech)와 AI 문해성 솔루션을 제안하는 모든 행위자에게 그것을 적용한다. 4. AI 오픈 교육 자원(AI Open Educational Resources)과 연계된 온라인 자료들을 통해 교육자(교사, 사서, 아동청소년 관련 전문가, 여성네트워크 등)를 위한 교육 자원을 제공하는 국제적인 미디어·정보 문해성 포털을 제공하여 미디어·정보 문해성의 역량 구축과 확장성을 제고한다. 5. AI를 이용한 로컬라이제이션으로 다양한 공동체(여성, 아동청소년 등)의 미디어·정보 문해성을 지원함으로써 AI 디지털 격차와 디지털 기술에서의 성별 격차를 줄인다. 6. AI 문해성을 위한 자원과 관련 자료를 설계하는 초기 단계에 다양성과 포용성에 대한 영향을 측정하는 척도를 포함시킴으로써 다양성과 포용성을 증진한다. 7. 지속가능한 방식으로 연구와 발전에 기금을 제공하는 국제적인 미디어·정보 문해성 옵저버토리를 수립하여 AI 시스템이 웰빙과 교육, 사회에 기여하는 정도에 대한 증거와 기준선을 생성한다. 8. 미디어·정보 문해성에 관한 정기적인 보고와 모니터링을 위해 미디어·정보 문해성 관계자를 비롯한 모든 이해관계자들이 참여하는 ‘정보와 AI에 관한 유엔 감독기구(UN Oversight Body on Information and AI)’의 수립을 지지한다. 9. 설명 가능하고 신뢰할 수 있는 AI 거버넌스와 신뢰에 관한 국제적인 대화를 위해 ‘미디어·정보 문해성과 AI를 통한 이용자 역량 강화’에 관한 공식적인 유네스코 권고(2024년도 국제미디어·정보문해성주간(Global MIL Week)에 출범 예정)를 제출한다. 10.미래의 건강한 지식사회를 구축하기 위해 시민사회와 NGO 분야(IFLA, IAMCR, MILID, WAN-IFRA 등) 등 각계의 주요 이해관계자들이 참여하여 출처 신뢰성 문제를 검토하는 범분야간 행사를 유네스코에서 개최한다. |
참고문헌
Bryant, A. (2023). AI Chatbots: Threat or Opportunity? Informatics, 10, 49. https://doi.org/10.3390/informatics10020049
Dogruel, L. Masur, P. and Joeckel, S. (2022). Development and Validation of an Algorithm Literacy Scale for Internet Users, Communication Methods and Measures, 16:2, 115-133, DOI: 10.1080/19312458.2021.1968361
Frau-Meigs, D. (2012). Transliteracy as the new research horizon for media and information literacy. Media Studies, 3(6) https://hrcak.srce. hr/ojs/index.php/medijske-studije/article/view/6064Future of life (2023). Pause Giant AI Experiments: An Open Letter https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Garon, J.M., (2023). An AI’s Picture Paints a Thousand Lies: Designating Responsibility for Visual Libel, Journal of Free Speech Law | 3:425 | 2023, https://ssrn.com/abstract=4543822
Grossi, E. and Buscema, M. (2008). Introduction to artificial neural networks. European journal of gastroenterology & hepatology. 19. 1046-54. 10.1097/MEG.0b013e3282f198a0.
Hargittai, E., Gruber, J., Djukaric, T., Fuchs, J. and Brombach, L. (2020). Black box measures? How to study people’s algorithm skills, Information, Communication & Society, 23:5, 764-775, DOI: 10.1080/1369118X.2020.1713846.
Head, A.J., Fister, B. and Macmillan M. (2020.) Information literacy in the age of algorithms, https://projectinfolit.org/pubs/algorithm-study/pil_al-gorithm-study_2020-01-15.pdf
Hendersen, P, Hashimoto, T. and Lemley, M. (2023). Where’s the Liability in Harmful AI Speech? Journal of Free Speech Law, arXiv:2308.04635v2, doi.org/10.48550/arXiv.2308.04635
Information Commissioner’s Office (ICO) (2020). Guidance on explaining decisions made with AI, developed with the Alan Turing Institute, https:// ico.org.uk/media/for-organisations/documents/2620329/explaining-decisions-made-with-ai-summary.pdf
Jones, E. (2023). Explainer: What is a foundation model? Ada Lovelace Institute https://www.adalovelaceinstitute.org/resource/foundation-models-explainer/
Lo, C K. (2023). What Is the Impact of ChatGPT on Education? A Rapid Review of the Literature, Educ. Sci. 13, 410. https://doi.org/10.3390/educsci13040410
Long, D. and Magerko, B. (2020). What is AI Literacy? Competencies and Design Considerations, CHI ‘20: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems April 2020 Pages 1–16 https://doi.org/10.1145/3313831.3376727
Möller, D. (2023). Machine Learning and Deep Learning, Springer DOI: 10.1007/978-3-031-26845-8_8.
Ngo, R. Chan, L. and Mindermann, S. (2023). The alignment problem from a deep learning perspective, ArXiv, https://arxiv.org/abs/2209.00626
Nguyen, D., and Beijnon, B. (2023). The data subject and the myth of the ‘black box’ data communication and critical data literacy as a resistant practice to platform exploitation. Information, Communication & Society, DOI: 10.1080/1369118X.2023.2205504
OECD Employment Outlook (2023). Artificial Intelligence and the Labour Market https://www.oecd-ilibrary.org/fr/employment/oecd-employment-outlook-2023_08785bba-en
Open AI (2023). Governance of super intelligence, https://openai.com/blog/governance-of-superintelligence
Römgens, I., Scoupe, R, and Beausaert, S. (2020). Unraveling the concept of employability, bringing together research on employability in higher education and the workplace, Studies in Higher Education, 45:12, 2588-2603, DOI: 10.1080/03075079.2019.1623770
Sajid A., Tamer A., Shaker El-Sappagh, Khan M., Alonso-Moral, J-M., Confalonieri, R. Guidotti, R., Del Ser J., Díaz-Rodríguez, N., Herrera F. (2023). Explainable Artificial Intelligence (XAI): What we know and what is left to attain Trustworthy Artificial Intelligence, Information Fusion, Volume 99, 2023, https://doi.org/10.1016/j.inffus.2023.101805.
Schlegel, D. and Uenal, Y. (2021). A Perceived Risk Perspective on Narrow Artificial Intelligence, PACIS 2021 Proceedings. 44. https://aisel.aisnet.org/pacis2021/44
Shane, T., Saltz, E. and Leibowicz, C. (2021). There are lots of ways to label AI content. But what are the risks? https://firstdraftnews.org/long-form-article/there-are-lots-of-ways-to-label-ai-content-but-what-are-the-risks/
Srivastava, B., Nikolich, A, and Koppel, T. (eds). (2023). AI and elections: An introduction to the special issue, AI Magazine, https://doi. org/10.1002/aaai.12110
Stieglitz, S., Zerfass, A., Ziegele, D., Clausen, S., and Berger, K. (2022). Communications Trend Radar 2022. Language awareness, closed communication, gigification, synthetic media & cybersecurity (Communication Insights, Issue 14). Academic Society for Management & Communication. www.academic-society.net
Trust, T., Whalen, J. and Mouza, C. (2023). Editorial: ChatGPT: Challenges, Opportunities, and Implications for Teacher Education. Contemporary Issues in Technology and Teacher Education, 23(1), 1-23. https://www.learntechlib.org/primary/p/222408/
UNESCO (2023a). Handbook on Reporting about Artificial intelligence https://unesdoc.unesco.org/ark:/48223/pf0000384551.locale=en
UNESCO (2023b). Generative AI and the future of education https://unesdoc.unesco.org/ark:/48223/pf0000385877
UNESCO (2023c). Foundation Models such as ChatGPT through the prism of the UNESCO recommendation on Ethics of AI https://unesdoc.unesco.org/ark:/48223/pf0000385629
UNESCO (2023d). Guidelines for Safeguarding Freedom of Expression and Access to Information in the Governance of Digital Platforms: A multistakeholder approach” https://www.unesco.org/sites/default/files/medias/fichiers/2023/04/draft2_guidelines_for_regulating_digital_platforms_en.pdf
UNESCO (2023e). Building institutional capacity in public policy development in the field- A decision maker’s toolkit of AI https://en.unesco.org/artificial-intelligence/decision-makers-toolkit
UNESCO (2023f). “Deep Dive for Policymakers in Media and Information Literacy” MOOC https://stageweb.unesco.org/en/articles/newly-launched-mooc-deep-dive-policymakers-media-and-information-literacy
UNESCO (2022b). The effects of AI on working lives of women https://unesdoc.unesco.org/ark:/48223/pf0000380861
UNESCO (2022a). Recommendation on the Ethics of Artificial Intelligence https://unesdoc.unesco.org/ark:/48223/pf0000381137
UNESCO (2021a). Windhoek + 30 Declaration: information as a public good, World Press Freedom Day 2021. https://unesdoc.unesco.org/ ark:/48223/pf0000378158
UNESCO (2021b). Artificial Intelligence. Media and Information Literacy, Human Rights and Freedom of Expression https://iite.unesco.org/wp-content/uploads/2021/03/AI_MIL_HRs_FoE_2020.pdf
UNESCO (2021c). Media and Information Literate Citizens: Think Critically, Click Wisely” https://unesdoc.unesco.org/ark:/48223/pf0000377068
UNESCO (2020) Artificial Intelligence and Gender Equality: Key findings of UNESCO’s global dialogue. https://unesdoc.unesco.org/ark:/48223/pf0000374174/PDF/374174eng.pdf.multi
UNESCO (2019). I’d blush if I Could: Closing Gender divide in digital skills through education, https://en.unesco.org/Id-blush-if-I-could
United Nations (2023) Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression, Irene Khan https://documents-dds-ny.un.org/doc/UNDOC/GEN/N23/233/65/PDF/N2323365.pdf?OpenElement
Van Drunen, M, Zarouali, B and Helberger, N. (2023). Recommenders you can rely on, https://www.jipitec.eu/issues/jipitec-13-3-2022/5562/van_drunen_13_3_2022.pdf
Vincent, J. (2022). The scary truth about AI copyright https://www.theverge.com/23444685/Generative-ai-copyright-infringement-legal-fair-use-training-data
Wach, K., Duong, C., Ejdys, J., Kazlauskaitė, R., Korzynski, P., Mazurek, G., Paliszkiewicz, J., and Ziemba, E. (2023). The dark side of Genera- tive artificial intelligence: A critical analysis of controversies and risks of ChatGPT. Entrepreneurial Business and Economics Review, 11(2), 7-30. https://doi.org/10.15678/EBER.2023.110201
Zou, A, Wang, Z, Zico Kolter, J, Fredrikson, M. (2023). Universal and Transferable Adversarial Attacks on Aligned Language Models, https://llm-attacks.org/
저자 소개
디비나 프로-메이그스(Divina Frau-Meigs) 소르본누벨대학교(Sorbonne Nouvelle University) 미디어 정보통신기술 사회학 교수는 미디어와 정보 문해성 분야의 정책과 실천에 관한 연구로 잘 알려져 있다. 유네스코의 글로벌미디어•정보문해성상(Global MIL Award)을 수상한 바 있으며, 문화적 다양성, 인터넷 거버넌스, 아동청소년의 미디어 이용 연구를 전문으로 한다.
(원문출처)
-
지적 자유의 옹호 – 도서관의 노력을 구조화하고 집중화하기국제교류홍보팀 2025-02-06
-
생성형 인공지능의 발전에 대한 대응으로써 미디어와 정보 문해성을 통한 이용자 역량 강화국제교류홍보팀 2025-01-10
-
2024년 IFLA 동향보고서국제교류홍보팀 2024-12-09
-
전환기에 접어든 세계를 위한 문해력 증진: 지속 가능하고 평화로운 사회를 위한 기반 구축- 유네스코 국제회의 보고서국제교류홍보팀 2024-10-08
-
지속 가능한 미래를 위한 도서관- 2024년 유럽 의회 선거를 위한 선언문국제교류홍보팀 2024-09-10
