[뉴시안= 전규열 기자] ‘AI 혁명(AI 신인류를 위한 길라잡이, 지은이 송경희, 출판사 메디치미디어, 출판연도 2025)’에서 저자는 우리 곁에 가까이 다가온 AI는 과거 인터넷과는 비교할 수 없을 정도로 파괴력이 강하다고 말한다. AI의 발전 속도와 범위, 인류에 미치는 영향은 상상을 초월한다. 개인에게 스스로 알아서 배우고 익히도록 방치할 사안이 아니다. 체계적인 접근이 필요하다.
내부적으로는 국가적인 교육, 인재 육성, 생태계 보호 및 발전 등 구체적이고 장기적인 전략 수립이 마련되어야 한다. 대외적으로는 미국, EU, 일본 등과 차별화된 파트너십을 추진하여 국제사회에서 입지를 강화해야 한다.
AI를 이해하고 활용하지만 무조건적인 수용이 아니라 결과물에 비판적 의견을 표시하고, 오류를 발생시킬 위험이 내포되어 있지만 확인과 모니터링으로 효율성을 제고해 나갈 때 AI는 인류에게 커다란 가치를 제공해 줄 것이다.
(P.38~) 가까이 다가온 AI
인공지능 기반 합성 기술은 놀라울 정도로 정교하다. 이 기술의 핵심은 생성적 적대 신경망(GAN Generative Adversarial Network) 모델로, 하나의 AI가 콘텐츠를 생성하고 다른 AI가 이를 진짜인지 아닌지 판별하는 과정을 반복하면서 점점 더 정교한 결과물을 만들어내는 방식이다. '딥페이크(Deepfake)'라는 용어는 딥러닝(Deep Learning)과 가짜(Fake)의 합성어로, 2017년 레딧(Reddit) 플랫폼에서 처음 등장한 이후 AI 합성 기술의 악의적 활용을 지칭하는 용어로 사용되고 있다.
알고리즘이 추천하는 대로 무심코 따라가다 보면 '필터 버블(Filter Bubble)'에 갇히기 쉽다. 2011년 엘리 패리저(Eli Pariser)가 제시한 이 개념은 알고리즘이 사용자의 관점과 일치하는 정보만 제공하여 각자의 문화적, 이념적 거품 속에 가두는 현상을 말한다. 이로 인해 같은 검색어로 콘텐츠를 찾아보더라도 사람마다 다른 추천을 받게 된다. 보수적 성향인 사람들에게는 비슷한 관점의 콘텐츠가 계속 추천되고, 반대로 진보 성향이라면 그에 맞는 콘텐츠가 계속 뜬다. 마치 각자 다른 채널만 시청할 수 있는 TV를 보는 것과 같다.
정크 푸드처럼 우리의 정보 섭취를 왜곡시킬 수 있는 것이다. 선택적 인지로 새롭고 다양한 생각이나 콘텐츠를 접할 기회가 줄어들고 기존 관점이 강화되는 확증편향이 일어나는 것이다. 알고리즘에 대한 의존도가 커지면 스스로 고민하고 선택하는 능력도 약해진다. 취리히대 AI 윤리학자 뮤리엘 로이엔버거(Muriel Leuenberger)는 삶에서 좋은 선택을 하여 자신을 행복하게 하는 정체성을 구성하는 것이 성취인데, 이 힘을 AI에 넘기는 것은 문제라고 지적했다. 알고리즘이 취향이나 편리의 문제를 넘어 개인의 의지를 빼앗고 정체성을 고정시키는 '석회화 효과' 를 가져온다는 것이다.
(P.77) 자율주행차의 윤리적 판단
사람들은 다음의 세 가지에는 대체로 강하게 동의했다. 인간의 생명이 동물보다 우선이고, 더 많은 생명을 구하는 게 낫다는 것, 그리고 어린이의 생명은 특별히 소중하다는 것이다. 특히 유아, 어린 여아, 어린 남아, 임산부가 가장 높은 보호 우선 순위를 받았다. 하지만 그 외의 판단에서는 문화권마다 뚜렷한 차이를 보였다.
자율주행차의 윤리적 알고리즘을 설계할 때 문화적 차이를 어떻게 반영할 것인지, 보편적 기준은 가능한지에 대한 질문을 던지게 된다. 2017년 독일은 세계 최초로 자율주행차 윤리 지침을 마련했다. 윤리• 법률•기술 분야 전문가 14명으로 구성된 '자동•연결 주행 윤리위원회'가 20개 조항의 가이드라인을 만들었는데, 핵심 원칙은 명확했다. "인간의 생명을 최우선으로 하되, 나이나 성별 같은 개인적 특성으로 차별하지 말라." 즉, 사고가 불가피할 경우 기물이나 동물의 피해를 감수하더라도 인명 피해를 최소화해야 하며, 사고 연루자의 성별, 연령, 장애 여부 등에 따른 차별적 판단을 금지했다. 다만 보행자와 탑승자 중 누구의 안전을 우선할 것인가와 같은 극단적 딜레마 상황에 대해서는 "차량 시스템은 인간의 결정을 따라야 한다"는 수준의 잠정적 결론을 내리는 데 그쳤다.
본인이나 가족이 승객일 경우는 공리주의적 판단이 반드시 우선하는 것은 아니라는 연구 결과가 있다. MIT 미디어랩과 툴루즈∙오리건대 연구진은 자율주행차가 불가피한 사고 상황에서 어떤 선택을 해야 하는지에 대한 사람들의 인식을 조사했다. 응답자들은 원칙적으로는 더 많은 생명을 구하는 공리주의적 판단(승객 1명을 희생해 보행자 10명을 구함)을 지지했지만, 자신이나 가족이 탑승했을 경우에는 승객 보호를 우선으로 하는 자율주행차를 선호하는 것으로 나타났다. 또한 정부가 공리주의적 알고리즘을 의무화하는 규제를 도입할 경우, 자율주행차 구매 의향이 크게 감소하는 것으로 나타났다.
(P.104) AI의 위험성
AI 활용에 대한 위험성은 일반 기술과 근본적으로 다른 특별함이 있 다. 자율학습 능력과 잠재적인 '재귀적 자기개선(RSI Recursive Self-Improvement)' 가능성이다. 재귀적 자기개선(再歸的自己改善)이란 AI가 자신의 알고리즘을 스스로 개선하여 더 똑똑한 버전을 만들고, 이 개선된 버전이 다시 더 나은 버전을 만들어내는 연쇄적인 자기 발전 과정을 의미한다.
1. 기술적 위험
AI 시스템의 신뢰성과 안정성 문제는 가장 기본적인 도전 과제다. 대형언어모델(LLM)의 할루시네이션(Hallucination 幻覺) 현상으로 인한 잘못된 정보 생성, 적대적 공격에 취약한 보안 문제, 예기치 못한 시스템 오류나 실패 등이 여기에 속한다.
특히 시퀀스 모델(Sequence Model)의 확산은 새로운 기술적 위험을 가중시키고 있다. 시퀀스 모델이란 여러 AI 모델이 순차적으로 연결되어 이전 모델의 결과가 다음 모델의 입력으로 사용되는 방식을 말한다. 이는 금융 리스크 평가(신용평가-대출심사-금리산정), 의료 진단(영상판독-질병진단-치료추천), 자율주행(물체인식-상황판단-주행제어) 등 복잡한 의사결정이 필요한 분야에 활용되고 있다. 예를 들어 97%의 정확성을 가진 세 개의 모델이 순차적으로 연결된 경우 최종 정확도는 약 91%로 떨어질 수 있으며 더 많은 모델이 연결될수록 오류가 누적되어 정확도가 계속 감소한다.
2. 윤리적•법적 위험
AI 알고리즘의 편향과 차별, 개인정보 침해, 의사결정 과정의 불투명성으로 인한 책임소재 문제 등이 대표적이다.
3. 사회경제적 위험
AI로 인한 일자리 대체와 노동시장 재편, AI 활용 격차로 인한 불평등 확대, AI 기반 허위정보 확산으로 인한 민주주의 위험이 주요 우려사항이다. 특히 AI 기술 접근성의 격차는 기존의 사회경제적 불평등을 더욱 심화시킬 수 있다.
(P.108) 할루시네이션 (幻覺 Hallucination) 현상
AI의 할루시네이션은 생성형 AI 사용자들이 경험하는 일반적인 현상이다. 이는 단순한 오류나 오작동과는 다른 차원의 문제로, AI 모델, 특히 대형언어모델이 실제 데이터나 사실에 기반하지 않은 정보를 생성하는 것을 말한다. 인간이 의도적으로 거짓말을 하는 것과는 달리 AI 모델이 학습 과정에서 패턴을 잘못 일반화하거나 정보의 빈틈을 자체적으로 메우려는 과정에서 발생한다. 인간이 사실이 아닌 내용을 잘못된 인식으로 기억하거나 주변 사건을 사실과 다르게 재구성하여 이야기하는 현상인 컨파뷸레이션(作話 confabulation)과도 구분된다.
AI가 너무나 자신만만하게 사실과 유사해 보이는 허구의 이야기를 만들어내는 할루시네이션 현상이 부각되면서, 2023년 케임브리지 사전은 할루시네이션을 '올해의 단어'로 선정하기도 했다.
할루시네이션 현상의 비밀은 LLM, 즉 대형언어모델의 작동 방식에 있다. LLM은 입력된 텍스트를 바탕으로 확률적으로 다음 단어나 문장을 예측하여 텍스트를 생성한다. 이 모델은 학습 데이터의 패턴을 일반화하지만, 실제 사실과 허구를 제대로 구분하지 못한다. 또한 전체 세계의 지식을 완벽히 이해하지 못하고 제한된 맥락 내에서 작동한다. 그리고 정보의 빈틈을 채우는 과정에서 학습한 패턴을 기반으로 실제와 다른 정보를 만들어내기도 한다. 마치 천재적인 작가처럼 글을 써내려 가지만, 때로는 현실과 상상을 구분하지 못하고, 정보의 공백을 창의적으로 메워버리는 것이다. 과적합(overffiting)*, 과도한 일반화, 이상한 단어 조합 등이 이런 창작의 원인이 되곤 한다.
* 머신러닝 모델이 학습 데이터에 지나치게 최적화 되어, 새로운 데이터(테스트 데이터 )에서는 예측성능이 저하되는 현상
(P.184) AI 노마드
디지털 노마드가 장소에 구애받지 않고 어디서든 일할 수 있는 자유로움을 강조하는 말이었다면, AI 노마드는 다양한 작업과 프로젝트에 AI 솔루션을 적용하며 직업이나 산업의 경계로부터 자유롭게 융복합적으로 일하는 사람이다. AI 기술과 자신의 전문성을 결합하여 과거의 칸막이적 사고에서 풀지 못했던 문제를 풀어내고 사회의 다양한 장에서 실력을 발휘하는 사람이다.
AI 노마드로 성공하기 위해서는 AI에게 정확한 지시를 내려 원하는 결과를 얻어내는 프롬프트 엔지니어링 능력과 AI 결과물을 맹신하지 않고 적절히 검증할 수 있는 비판적 사고력이 중요하다. AI 활용에 따른 저작권, 개인정보, 편향성 등 윤리적•법적 문제를 이해하고 책임있게 대응할 수 있는 역량이 필요하다.
AI를 빠르게 학습하여 잘 활용하는 것은 격동의 시대를 헤쳐나같 큰 무기를 갖게 되는 것과 같다. AI 노마드가 직업 간, 산업 간 경계를 드나드는 세계에서는 비구조적인 복잡한 문제와 비정형적 문제를 해결하는 능력, 사회적 관계 기술, 유연한 적응력이 전가의 보도로 빛을 발할 것이다. "미래를 예측하는 가장 좋은 방법은 그것을 창조하는 것이다"라는 미국의 경영학자 피터 드러커(Peter Drucker)의 말처럼, AI기술이 가져올 변화를 겁내지 않고 자신의 기회로 만들어나가는 AI 노마드가 필요한 시대다.
(P.208) AI와의 차별화..창의적 사고
세계경제포럼은 2030년까지 급증이 예상되는 스킬로 AI 및 빅데이터(87% 증가), 네트워크 및 사이버보안(70%), 기술적 문해력(66%), 창의적 사고(66%), 회복력•유연성•민첩성(62%)을 꼽았다. 그리고 이러한 변화에 적응하기 위해 2030년까지 전세계 노동자의 59%가 재교육 또는 기술 업그레이드가 필요할 것으로 예상했다.
기술 발전으로 인해 사회•경제가 빠르게 변화하는 시대는 우리가 배운 기술과 지식을 오래 활용하도록 두지 않는다. 어려운 자격시험에 한 번 합격하면 평생이 보장되는 시대도 저물고 있다. 변화하는 환경이 요구하는 새로운 기술이나 일의 방식을 빠르게 학습하여 자기가 하는 일에 적용할 수 있는 학습능력과 적응력이 가장 중요한 자질로 꼽힌다.
과거 산업화 시대의 인재상은 명확했다. 규율을 준수하고, 반복적인 작업을 정확하게 수행할 수 있는 능력이 중요했다. 한 가지 전문 기술만 익히면 평생 그 분야에서 전문가로 인정받을 수 있었다. 이제 더 이상 그런 방식은 통하지 않는다. 기술의 수명은 갈수록 짧아지고 지속적으로 업데이트하지 않으면 금세 구식이 되어버린다. 끊임없는 학습과 적응력으로 변화하는 환경에 맞춰 새로운 역량을 개발하는 사람이 AI 시대에 필요한 인재상이다.
창의적 사고가 AI와 사람이 차별화되는 강점이다. AI의 성능이 하루가 다르게 발전하는 상황이긴 하지만 '인간의 융합적이고 복합적인 창의성이 미래의 생존조건'이라는 말은 상당히 오랫 동안 유효할 것이다. 창의성은 비판적 사고와 결합되어야 빛을 발할 수 있다. AI가 제시하는 답을 비판적으로 보는 자세가 창의성 발휘의 출발점이다. '왜'라는 질문을 자주 던져야 한다.
(P.236) AI를 가장 잘 쓰는 나라
이 비전 실현을 위한 필수 과제 FACE 전략(12개)이 있다. FACE는 AI가 가져올 기회와 도전을 현명하게 직시하며 인간다운 얼굴의 AI를 발전시키자는 의미를 담고 있다. 정부•산업•학계가 함께 추구할 종합적 전략이 FACE이며, 그 핵심 골격이 3F-3A-3C-3E다.
우리나라는 정부 주도의 정책 실행과 특정 산업 내 AI 적용에서는 우위를 점하지만, 기초원천기술 역량, 투자, 스타트업, 글로벌 시장 진출 등 산업 생태계 측면에서는 취약하다. AI 기술 강국이 되기 위한 삼박자는 기초원천기술 확보, 산업현장에서의 효과적인 AI 적용, 그리고 이를 뒷받침할 핵심 인프라의 구축이다. 제프리 힌턴 교수는 "한국이 G2(미국,중국)를 따라잡을 길은 기초연구 강화뿐"이라고 강조한 바 있다.
3A 전략의 각 요소는 서로 연결되어 있다. 보편적 접근성(Access)이 보장되어야 AI 도입 과정에서 소외되는 계층이 줄어들고, 사회 전반의 적응성(Adaptability)이 높아진다. 또한 명확한 책임 체계(Accountability)가 있어야 산업 구조 전환 과정의 부작용을 최소화하고 사회적 수용성을 높일 수 있다. 결론적으로 3A 전략은 AI 기술의 긍정적 변화는 키우고 부작용은 최소화하여, 우리 사회가 포용적이고 지속가능한 방식으로 AI 시대를 선도하기 위한 방안이라 할 수 있다.
스탠퍼드 'AI 인덱스 2024'는 한국을 1만 명당 0.3명이 유출되는 AI 인재 순유출국으로 분류했다. 국내 교육과 노동시장의 상대적 매력도가 떨어지는 현실에서, 더 나은 기회를 찾아 떠나는 젊은이들을 애국심에 호소하여 붙잡을 수도 없는 노릇이다. 특히 글로벌 자본이 유망 지역과 산업에 집중되면서 미국과 같은 거대 국가의 인재 흡인력은 블랙홀처럼 커지고 있다. 여기에 캐나다와 호주는 공격적인 이민 정책으로, 유럽과 일본은 파격적인 혜택으로 인재 유치에 나서면서, 국제 인재 경쟁은 총성 없는 전쟁을 방불케한다.
성공적으로 해외 인재를 유치하고 있는 국가의 공통된 특징을 보면,
첫째, 성공적인 해외 인재 유치 전략의 핵심은 종합적인 '원 스톱 패키지'를 제공하는 것이다. 신속한 비자 발급과 배우자 취업 허용, 주거 및 행정 지원을 통합적으로 제공하여 인재들이 빠르게 정착할 수 있도록 지원한다. 행정 절차가 복잡하거나 시간이 오래 걸리면 인재들은 다른 국가로 쉽게 이동한다는 점을 이들 국가는 잘 이해하고 있다. 둘째, 인재들이 장기적으로 체류하고 경력을 발전시킬 수 있는 환경이 중요하다. 셋째, 가족 정착 지원도 결정적인 요소다.
AI 윤리와 신뢰성 분야에서 글로벌 리더십을 확보하는 것이 중요하다. 투명성, 공정성, 책임성, 안전성, 인간 존엄성을 담은 윤리 원칙이 글로벌 AI 윤리 규범으로 정착되도록 앞장서야 한다. AI를 통한 공동번영이라는 글로벌 의제를 주도하며 모든 국가와 사회구성원이 AI 혜택을 함께 누릴 수 있는 포용적 성장 모델을 확산해야 한다.
이를 위해 첫째, 공동 번영에 대한 글로벌 차원의 공감대를 형성한다. 특히 인구 고령화, 환경 위기, 전염병 등 범지구적 난제 해결을 위한 다국적 협업 이니셔티브를 선도하여 AI가 인류 공통 과제 해결에 기여하는 선도 사례를 창출한다. 둘째, AI 역량이 취약한 국가들을 위해 학습, 기반시설, 제도적 체계 구축을 패키지로 지원하고, 현지 기업 및 인재와 국내 기업 간 협업을 통해 자립 가능한 협력 모델을 구축한다. 셋째, 인류 보편 가치 실현을 위해 AI가 양극화와 불평등을 심화시키지 않도록 AI 서비스의 혜택을 글로벌 차원으로 확산시킨다. AI 활용이 생산성 증대뿐만 아니라 사회적 약자 보호와 산업전환 지원 등을 통해 '함께 잘사는' 번영 모델로 정착되도록 국제사회와 함께 만들어나간다.
글 김도진 법무 법인 세종 고문(전 IBK기업은행장)