일반인간을 널리 이롭게 하는 인공지능을 위해

공동체IT
2024-04-25
조회수 477

격월간 <공공선>에 기고한 글입니다. 아래는 편집을 안 거친, 제가 보낸 상태의 글이에요.

 -----

말을 잘 하려면 어떻게 해야 할까요? 우리가 말을 할 때 언어적 요소의 중요성은 7%에 불과하고 비언어적 요소의 중요성이 93%가 된다고 합니다. 청각적 요소가 38%, 시각적 요소가 55%를 차지한다고 하지요. 한 번 자신의 생각을 표현하는데 어려움을 겪었던 분은 스스로 부정적 피드백을 통해 자신감이 떨어지고 긴장을 하게 되어 상대방의 주의를 모으는데 더욱 어려움을 겪곤 합니다. 이럴 때 주변에 있는 말을 잘 하는 사람의 모습을 입체적으로 상상하며 따라하는 것이 효과적일 때가 있습니다. 특유의 표정, 톤, 제스처, 습관적인 맺음말 등 언뜻 보면 메시지 자체와 무관하게 여겨지는 것들을 빌려오는 것인데요, 왠지 모르게 안정감이 생기며 내가 말하고자 하는 내용에 스스로 집중할 수 있게 되기도 합니다.

 

우리가 어떤 목적으로 말하던 듣는 이와의 상호작용이 중요한데요, 언어적 요소를 둘러싼 수많은 것들을 함께 고려하고 준비해야 효과적으로 전달을 할 수 있습니다. 참고가 되는 주변의 모델, 멘토의 다듬어진 부분들을 단순히 가져오는 것으로 복잡한 내적 과정들을 대체함으로써 본질적으로 여겨지는 7%의 언어요소에 조금 더 에너지를 집중할 수 있게 됩니다. 물론 한 사람에게서 모든 것을 가져오면 부작용이 있을 수 있으니 여러 사람의 좋은 면들을 조금씩 가져오고, 성공적인 이야기 후에는 비언어적 요소의 배합을 바꾼다던지 하는 식으로 나름 발전시키는 것이 좋을 것입니다.

 

제 주변의 어떤 청년은 자신의 표현이 반복적으로 오해를 사고 관계를 불편하게 하며 성과가 잘 공유되지 않는 경험을 하며 오랫동안 위축되어 있었는데요, 최근에 큰 관심을 불러 모은 chatGPT를 통해 하고 싶은 말을 보다 보편적이고 정형화된 표현으로 다듬어 보고 실생활에 활용하기도 합니다. 인공지능이 만들어 준 말이 100% 정답이 아니고 참신하지 않으며 모든 경우에 활용할 수도 없지만 누군가에게는 막막함을 조금이나마 덜어주는 참고 자료가 되고 있습니다.

 

어떤 비영리조직 활동가는 전반적으로 일을 잘하고 열정도 있어 좋은 평판을 얻고 있지만 모든 사람이 그렇듯 어떤 부분에서 반복적으로 약점을 보이고 있습니다. 기획을 할 때 핵심 컨셉은 훌륭한데 어떤 기본적인 요소 하나씩을 빠뜨리는 바람에 전반적인 품질이 떨어져 보이는 경우가 있습니다. 이 활동가에게 기획 문서를 작성할 때 인공지능을 활용해 전체 뼈대를 빠르게 만들고 핵심 내용을 보강하는 방법을 권한 적이 있습니다. 오랜 사람들이 시행착오를 통해 만들어 온 성과를 모아 학습해 온 인공지능은 핵심에 집중하는 몰입형 인간이 빠뜨릴 만한 부분적 요소들도 놓치지 않고 제시해 주니까요. 이렇게 오랜 인류 역사에 걸쳐 이미 겪었던 시행착오를 최소화하고, 평균 이상의 ‘단단한 토대’를 바탕으로 해 개개인의 변수를 더해가는 것이 함께 축적한 지적 자산을 잘 활용하는 방법일 것입니다. 옳은 방향으로 발전해 간다면 인공지능은 모든 인간들이 갖고 있는 약점들을 커버하고 “전보다 나은 출발점”에서 시작할 수 있게 하는 도약의 지지대가 될 수 있습니다.

 

차분히 인공지능을 들여다 봅시다

인공지능은 사실 오래전부터 연구되고 적용되어 온 개념입니다. 17,18세기 뇌와 마음에 대한 철학적 논쟁을 출발점으로 보기도 합니다. 본격적인 연구는 역시 컴퓨터가 등장하면서 인간 신경망의 작동 원리를 디지털 방식으로 따라가 보려는 시도부터라고 할 수 있겠습니다. 인공지능이란 용어가 처음 사용된 시기는 1955년도이고, 1980년대에 이미 10억달러 규모의 시장이 형성되었을 정도로 꾸준히 연구가 되어 왔습니다. 그러나 당시 컴퓨터의 처리 능력 한계, 학습할 데이터의 부족, 연구방법론의 약점 등으로 충분한 성과가 나오지 않아 연구자금 지원이 중단되기도 하는 등 두 번의 “긴 겨울”을 겪기도 했습니다. 최근 몇 년간 알파고(AlphaGo)와 인간의 바둑 대결, 인간의 언어를 유창하게 쓰는 chatGPT의 대두로 인공지능이란 개념이 최근에 대중화되었는데요, 물리적 컴퓨터 장치의 성능이 비약적으로 발전하고 “빅 데이터”를 처리하는 방법들의 혁신이 이뤄지며 예전에는 현실적으로 불가능하다고 여겨진 방식으로 인공지능을 학습시키는 것이 가능해졌기 때문입니다.

 

급격히 발전하는 과학기술은 강력한 힘으로 인간의 환경과 문화를 바꾸기에 저항을 불러일으키기도 합니다. 최근의 인공지능의 발전 속도 역시 인간에게 두려움을 주고 있는 것 같습니다. 두려움이란 감정은 그 자체로 나쁜 것은 아니고 그 경고 신호에 어떻게 인간이 대응할 것인가가 중요하겠지요. 두려움을 극복할 수도 있고, 잠겨 버릴 수도 있는데요, 극복을 위해 그 두려움의 실체를 한번 차분히 들여다볼까요?

 

지금 우리에게 가장 가까이 와서 놀라움과 두려움을 주는 chatGPT는 이용자의 특정 요구에 따라 결과를 생성해내는 기술로서 “생성형 인공지능”이라고 일컫습니다. 인공지능을 단계별로 구분할 때 인간에게 유용한 도구로서의 “약인공지능”, 인간을 완벽하게 모방하는 “강인공지능”으로 크게 나누는데요, 자의식을 가진 인공지능이 인간을 공격하는 이야기들에 등장하는 무서운 인공지능이 강인공지능에 해당합니다(인간이 통제할 수 없을 정도로 아득히 초월한 초인공지능이란 개념도 있습니다) chatGPT는 비록 사람의 말을 아주 유창하게 해서 어찌 보면 왠만한 사람보다 뛰어난 지성체처럼 착각할 수도 있습니다만 어디까지나 인간의 지적 영역 중 일부에서 잘 흉내를 내게 된 문제해결 도구, 약인공지능에 해당합니다. 강인공지능의 개발은 아예 불가능하거나 아주 먼 미래라고 여겨지다 최근의 성과로 그것이 앞당겨질 수 있겠다는 전망을 하는 사람도 있어서 불안해할 수는 있습니다. 설령 강인공지능의 개발이 가능해진다고 해도 넘어야 할 기술 외적인 현실 요건이 워낙 많기 때문에 지금 심하게 두려워할 정도는 아닙니다.

 

두려움을 느끼는 이유

아직은 인간의 특정 문제를 해결하는 도구 수준에 불과한 지금의 인공지능에 대해 사람들이 두려움을 느끼는 이유는 무엇일까요? 다음과 같은 요인들을 생각할 수 있습니다

 

체감 발전속도 : 붉은 여왕의 세계

인공지능 개발을 주도하는 기업들이 새로운 성과를 짧은 기간 안에 경쟁적으로 발표하고 있고, 모든 것이 바뀔 것이니 어서 흐름에 탑승하라는 기술 전도사(Evangelist)들이 있습니다. 이들의 본의는 아니겠지만 대부분의 사람들이 갖는, 변화에 빠르게 적응하지 못해 도태될 수 있다는 불안을 심화시킬 수 있습니다. 앞에서 말했듯 인공지능의 연구는 수십년간 계속되어 온 것이며 아직은 비효율적인 방식을 하드웨어(물리적 장치) 성능으로 밀어붙여서 예상 못 한 결과가 나온 것을 최근에 활발히 응용하는 중입니다. 어떤 가능성의 범위안에서 놀랄 만한 신기한 소식이 계속 들릴 것은 분명하나 인류의 모든 것을 바꿔버릴 것이라는 류의 이야기는 성급한 부분이 있습니다. 그 이유는 아래에서 이어집니다.

 

다른 욕구를 가진 이해당사자들

인공지능 발전에 관심 갖는 주체들을 크게 나누면 순수한 의도로 탐구하는 과학자와 공학자, 새로운 수익 모델들을 만들려는 영리 기업들과 얼리어댑터들, 과학기술의 부작용을 제어하려는 공공과 시민사회 부문으로 나눌 수 있습니다. 지금의 인공지능 개발 흐름을 주도하고 있고 가장 큰 이익을 가져갈 주체는 큰 데이터를 처리하기 위한 인프라를 가지고 아직 산업적으로 최적화되어 있지 않은 분야에 투자할 수 있는 규모 있는 글로벌 기업들입니다. 이들 주체들이 각자 바라고 느끼는 점은 모두 다른데요, 과거에도 뛰어난 과학기술 아이디어는 끊임없이 나왔으나 결국 비용 절감과 소비 시장 개척 등 사업적 타당성이 맞지 않아 대부분이 관심을 받지 못하고 잠들었습니다. 현재의 연구개발 흐름이 어떤 가능성을 제시하느냐와 그것이 실제로 우리 현실에 안착할 것인가는 상당한 거리가 있습니다. 지금 기업들은 인공지능 자체에 대한 호기심으로 연구하는 면보다는 합리적 비용 수준에서 수익을 창출할 수 있는 플랫폼을 만드는데 관심이 있다고 볼 수 있습니다. 기술이 빨리 변하니 어서 따라오라고 사람들을 선동하는데에는 얼리어답터와 초기 수용자를 늘려 시장 형성을 촉진하려는 의도가 함께 있습니다. 이 의도는 과학기술 자체에 대한 순수한 호기심과 열정이 있는 과학자와 공학자에 의해 가려지는 경우가 많습니다.

 

인간과 공통점이 있어 보이는 것에 대한 의인화

인공지능에 대한 두려움이 커지는 것 중 하나는 유사한 행동 양식을 일부 공유하는 주체들에 인간이 쉽게 의인화를 하고 감정이입하는 경향도 있습니다. 강아지와 고양이 등 비인간 동물의 특정 행동들을 인간 중심의 관점에서 해석하는 것이 대표적입니다. GPT가 내 요청에 답을 내놓을 때, 화면에 보이지 않는 영역에서 일어나는 복잡한 기계적 매커니즘을 떠올리기보다 인간적 방식으로 사고해서 요청자를 인식하며 내놓는다는 생각을 하게 되면 두려움이 증폭될 수 있습니다. GPT가 인간적으로 이미 사고하는 것이라면 인간처럼 기억을 잃거나 떠올릴 때 어려움이 없고, 공포와 혐오 같은 감정적 안전장치가 없어 생각과 표현에 막힘이 없으며, 특정 분야의 전공만 가지지 않고 종합적인 지적 자산을 묶어 학습한 이상 이미 개별 인간보다 우월한 것처럼 느끼기에 충분한 것이겠죠. 하지만 지금 아무리 그럴듯하게 포장을 해도 GPT가 통계와 확률을 다루는 복잡한 수학을 아주 많은 데이터로 정확성을 높여 근사값을 내놓고 있다는 사실이 변하지는 않습니다.

 

원리를 이해하지 못하는 중에 현실로 나타난 성과

구글의 논문에 의하면 생성형 인공지능은 계산 규모가 10의 22승을 초과하는 순간, 갑자기 정확도가 폭증합니다. 이것은 분명히 발생하는 현상이고 응용도 가능하지만, 그 현상의 이유를 정확하게 규명하지는 못하고 있습니다. 다양한 요소들이 아주 많이 연결된 “복잡계”에서 창발적 능력이 생긴다고 하는 이론은 제기되어 왔지만 지금의 현상을 충분히 설명할 정도는 아닙니다. 인공지능의 발전에 크게 기여하고 첨단에 있던 사람들이 지금 인공지능 발전 흐름에 대해 우려하고, 강인공지능이 조기에 등장할 수 있다고 경고하는 입장으로 바뀌는 데는 이런 이유가 클 것입니다.

 

과정의 불투명성 : 비민주적인 과학기술 과정

지금의 인공지능은 학습할 데이터의 양과 질만큼 능력을 발휘할 수 있습니다. 굉장히 많은 데이터가 이미 학습에 쓰여왔지만 어떤 데이터가 어떻게 수집되어 활용되는지에 대해 투명하게 공개되어 있지 않습니다. 나쁜 데이터로 학습하면 나쁜 인공지능이 된다는 사례는 일찍이 드러나 있습니다. 기업의 자유를 중시하는 자본주의 사회에서 대기업에 의해 주도되는 인공지능 개발의 전 과정은 기존의 제도로는 투명성을 높이는데 어려움이 있습니다. 시민이 기존의 방식으로 통제하지 못하는 과정으로 일어나는 빠른 변화는 우려를 더해주기에 충분합니다. 다행히 기업이 주도하는 지금의 흐름에 공공/시민섹터가 아무 것도 하지 않고 있는 것은 아닙니다. 새 기술이 가져올 위험에 대비하고 변화 흐름에 맞게 제도와 규칙을 정비하려는 국제적 노력은 이뤄지고 있으며 더 폭넓은 관심과 참여가 필요한 상황입니다.

 

지구 환경의 한계선

인공지능을 개발하고 유지, 활용하는데는 막대한 에너지가 사용됩니다. 고성능 물리 장치를 만드는 자원도 지속적으로 소모됩니다. 지금처럼 인류가 정보 시스템을 활용하면 지구가 7개 이상 있어야 한다는 주장도 있습니다. 기업이 비용 합리화를 달성해 사업적 타당성이 갖춰져 서비스를 늘린다고 해도 지금의 기후 변화 같은 전지구적 위기에서 장기간 존속이 가능할 수 있을까요? 지구적 재앙이 발생했을 때 어렵게 사는 사람이 더 큰 고통을 겪고 있는 ‘환경정의’ 주제로 생각해보면 인공지능의 무제한적인 발전과 사용이 사회적 약자에게 외부적인 악영향을 끼치게 될 가능성을 부정할 수 없습니다. 인류가 공유하는 토대를 근본부터 무너뜨리는 요인이 될 수 있다는 두려움은 기술적 실업과 함께 가장 가까이 와 있는 현실적 고민일 수 있습니다. 에너지 절감 기술을 개발하는 등 현 기술의 문제는 더 나은 기술로 해결할 수 있다는 기술 낙관론자의 주장도 물론 있습니다.

 

정체/퇴행 양상으로 보이는 인간 사회

정보 기기가 개인 수준까지 널리 보급되고 인터넷과 월드와이드웹의 등장으로 전 지구의 지식 콘텐츠가 연결되어 함께 공유하고 만들어가는 지적 자산이 폭발적으로 늘어나게 되었습니다. 이런 집단적 지식이 인간의 삶을 풍요롭게 할 수 있을 것이라는 기대를 오래 받아왔지만 현실에서는 늘어난 정보량과 쉬운 취사 선택으로 인한 피로, 소외, 편향(Bias) 심화 등 부작용이 지금 더 강해지는 것처럼 느껴집니다. 인류 공동체가 새로운 양상으로 다시 조직되어 기존의 사회 문제들을 해결할 수 있을 것이라는 기대가 있었지만 빈부 격차가 정보 소비와 활용에도 영향을 미쳐 불평등을 심화시키기도 하는 등, 기술 외적인 영역에서의 사회 진보가 그 자체로 지속되지 않으면 기술이 재앙적 도구가 될 수도 있습니다. 과학기술 변화의 속도는 빠른데 그것을 사용하는 인간 개인의 역량, 기성 공동체의 변화 속도는 턱없이 부족하게 느껴질 수 있습니다. 시민이 과학기술을 더 적극적으로 이해하고 활용하여 사회규범을 만들고 직접적 공헌을 이끌어낸 “합의회의” 등 과학기술의 민주화 사례를 잘 살펴 지속적으로 노력할 필요가 있습니다.

 

인공지능과 사람, 사회

지금의 인공지능을 어떻게 바라보고 대응하는 것이 가장 좋을까요? 상반된 견해가 극단적으로 갈립니다만 대체로 1) 기술 변화의 큰 방향, 흐름은 되돌릴 수 없는 현실로 인정하고 2) 결국 인간의 욕구를 위해 만들어지는 기술이므로 현대 인류에 대해 깊이 있게 고찰하며 3) 현실적으로 발생하는 문제점들에 대해 적극적으로 선제 대응하는 것이 바람직할 것입니다. 지금의 인공지능 발전 방향을 원천적으로 막으려는 시도는 성공하지 못할 것입니다. 조급하지는 않지만 천천히 따라가고 이해를 늘리며 나와 공동체의 이로움을 위해 어떻게 쓸지 생각하고 경험을 늘려갑시다. 인간과 사회의 건강성을 증진시키고 과학기술의 민주화 수준을 높여갑시다. 기술적 실업, 저작권 이슈, 양극화 심화 등 현대 기술이 만들거나 기존 문제를 심화시키는 주제들에 대해 보다 적극적으로 사고하고 사회적 담론을 활성화해 합의를 도출해 갑시다.

 

각 주제들에 대해서는 이 글외에도 수많은 분들이 언급하고 생각을 공유해주고 계시므로 좀처럼 거론되지 않는 부문에 대해서 강조하고 싶습니다. 어떤 과학기술이던 그것을 만들어 가는데에는 사람의 역량이 필요합니다. 앞서 말씀드린대로 대체로 순수한 의도의 과학기술인은 연구 기반을 제공하고 생계를 유지시켜 주는 영리섹터에 포섭되어 있습니다. 과학기술은 수많은 사람들이 체계적으로 협력해서 궂은 일까지 해가며 만들어가는 것임에도, 그 사람들의 생계와 삶의 질에는 관심 갖지 않고 그 스펙터클한 결과에만 사회적 관심이 쏠립니다. IT분야 노동조합의 예전 조사 결과를 보면 IT강국이라고 자부하는 한국의 경우 비정규직 IT노동자의 노동시간은 국제 평균의 2배가 넘기도 했습니다. ‘을’조차 되기 어려운 하도급 구조에서 수많은 IT노동자들이 건강을 해치고 높지 않은 수준의 임금을 받으며 사회가 성취한 노동자의 권리 대부분을 보장 받지 못해 왔지만 일부 IT산업 셀럽들의 이미지가 덧씌워져 모두가 고소득 엘리트인 것으로 여기는 경향이 아직 시민사회에도 남아 있습니다.

 

어떤 과학기술이 특정한 부류의 사람들을 더 이롭게 하고 싶다면 그 사람들과 가까운 곳에 충분한 과학기술인이 머무를 수 있어야 합니다. 과학기술이 사회적 약자에게 직접적으로 혜택을 줄 수 있기 위해서는 사회적 소수자들의 연대체인 비영리섹터와 오래 교류하거나 안에서 활동하는 과학기술인이 필요합니다. 교육도 하고 여러 파일럿 프로젝트를 수행해 가능성을 발견하며, 깊은 이해를 바탕으로 당사자의 관점에서 인공지능을 활용한 사례들이 꾸준히 쌓이고 공유될 때 시민사회가 인공지능을 포함한 과학기술 흐름에 조금 더 주도적인 영향을 미치는 일이 가능할 것입니다. 한국의 비영리섹터에는 90년대 후반부터 2000년대 중반까지 시민사회단체 내 IT전담 인력을 두는 사례가 많았고, 2010년대 중반에는 영리섹터에 있는 과학기술인과 협력해 사회 실험을 확대한 시기가 있었습니다. 시간이 지날수록 시민사회와 과학기술인의 접점은 오히려 줄어들고 있는 것처럼 여겨집니다. 시민사회가 과학기술을 더 이해하고 싶다면, “과학기술인”을 이해하고 교류하는 것으로 시작하는 것이 좋다는 말씀을 드리고 싶습니다.

 

체력을 기르자
개인의 과학기술 이해 넓히기

인공지능 등 첨단 과학기술에 대해 여유를 가지고 균형 있는 관점을 유지하기 위해서는 어느 정도 관련 개념에 대한 기초적인 이해를 가져둘 필요가 있습니다. 아주 깊이 있는 수준까지 이해하지 못하더라도 앞으로 일어날 변화에 대해 약간의 상상을 할 수 있으면 충분합니다. 비전문가가 혼자 공부하기에는 진입장벽이 있으므로 공동체가 함께 요즘 쉽게 과학기술을 해설하는 콘텐츠를 바탕으로 스터디를 하거나, SF 소설과 영화 등을 통해 즐겁게 사유 실험을 하며 통찰을 얻는 시도를 해보는 것은 어떨까요?

 

사회의 과학기술 수용력 늘리기

과학기술이 현실에 적용되려면 윤리의 문제, 안전과 책임의 문제 등이 사회적 합의를 거쳐 제도로 정비되어야 합니다. 주도적인 소비자가 되기 위해서는 개인적 이해 뿐 아니라 소비자의 권리를 보호하고 피해를 최소화 하기 위한 집단적 장치들을 만들어 갈 필요가 있습니다. 윤리 문제를 제기하는 것이 과학기술의 발전 속도를 떨어뜨리고 막아서는 요인이라고 극단적인 부정적 견해를 갖는 사람도 있습니다만, 길게 보면 윤리 문제에 대한 고찰과 합의가 촉진될수록 기술의 사회에 수용될 수 있는 가능성과 속도가 올라가고 부작용에 대응하는 사회적 비용이 감소되어 기술로 인한 사회혁신이 힘을 받을 수 있습니다.

 

시민사회의 기술 활용과 생산 능력 늘리기

개인의 이해를 넓히고 제도의 정비로 부정적 영향을 최소화는 수준에서 더 나아가 사회적 약자를 포함한 모든 이가 기술의 혜택을 제대로 나눌 수 있도록 최소한의 생산 능력을 갖는 것이 좋습니다. 곧 출연할 인공지능을 개인적으로 활용할 수 있는 플랫폼에서 영리 목적이 아닌 공익 목적의 활용 사례를 적극적으로 만드는 것입니다. 아무리 뛰어난 과학기술인과 집단이라도 당사자가 아닌 문제에 대해 깊이 이해하고 맞춤 콘텐츠를 만들기는 어렵습니다. 산업별 노동조합과 연맹, 사회에서 주도적인 영향력을 행사하는 시민단체와 그 연합체 등에서 시민공공연구소를 함께 만들어 유지해 고안품을 만들어 내거나, 과학기술인이 비영리섹터에서 지속가능하게 활동할 수 있는 공유 자원들을 늘려가는 노력을 함께 만들어갈 수 있다면 좋을 것입니다.

 

마치며

인공지능의 발전이 놀라운 속도로 이뤄지고 많은 기대와 우려를 낳고 있는 것은 분명합니다. 어떤 극단적인 견해들에 쉽게 동의해서 불안을 해소하기보다는 주변 사람과 함께 차분하게 지금의 변화들을 생각하고 알아보는 노력을 기울일 것을 권합니다. 사회 변화가 더디게 느껴진다면 다시 힘을 모아 바퀴를 돌리며 과학기술의 힘을 주도적으로 수용해 활용할 수 있다면 좋겠습니다. 화려한 과학기술 성과의 이면에 감춰진 사람의 문제, 사회와 지구의 문제를 인식, 발견하고 새로운 사회적 담론으로 만드는, 지금의 인공지능이 할 수 없는 “새로운 변수를 만드는” 인간적인 활동을 더욱 활발히 해나갈 수 있는 사회가 되길 바라봅니다.

0 0