‘그래서 AI’ 시리즈 2편 – 윤리(Ethics) 이미지
‘그래서 AI’ 시리즈 2편 – 윤리(Ethics)

우리는 매체에서 인공지능에 대한 부정적인 기사를 접하곤 합니다. 실제 인물의 얼굴을 다른 사람에게 합성할 수 있는 ‘딥페이크(Deepfake)’, 특정 인종을 범죄자로 예측한 인종 차별적인 ‘안면 인식 시스템’까지 다양한 곳에서 부정적으로 언급되고 있죠. 이러한 윤리적 문제들은 인공지능의 탓일까요?

AIX 보고서의 6가지 주제를 나타낸 도표
AIX 보고서의 6가지 주제를 나타낸 도표

2021년 LG전자는 AI와 관련된 다양한 주제에 관해 논의하고, 인간 중심 AI의 미래를 만들기 위해 ‘AIX 보고서’를 발표했습니다. 세계 최고의 AI 전문가 12명이 참여한 이 보고서는 대중의 인식(Public Perception), 윤리(Ethics), 투명성(Transparency), 사용자 경험(User Experience), 맥락(Context), 관계(Relationship) 등 AI에 대한 6가지 주제를 다루고 있는데요. 오늘은 두 번째 주제인 ‘윤리(Ethics)’. 즉 윤리적 AI에 대해 알아보겠습니다.

지난 시리즈가 궁금하다면?

[그래서 AI #1 – 대중의 인식(Public Perception)]

AI에게 윤리(Ethics)란?

AI 인공지능을 형상화한 이미지

윤리는 사전적 의미로 ‘마땅히 행하거나 지켜야 할 도리’를 뜻합니다. 사람들은 사회활동과 교육을 통해 윤리를 습득하는데요. 인공지능은 사람과 달리, 윤리에 대해 경험하거나 교육을 받지 못하고 프로그래밍될 뿐입니다. 사람의 요청에 따라 분석하고 행동할 뿐이죠. 따라서 AI의 윤리란, 이를 프로그래밍한 사람의 윤리적 기준에 따라 달라지게 됩니다.

2019년 컴퓨터 과학의 노벨상이라 불리는 ‘튜링상(Turing Award)’을 수상한 AI 연구자 요수아 벤지오(Yoshua Bengio)는 AI를 다룰 땐 인간 중심적 사고가 중요하다고 인터뷰했는데요. “AI 시스템은 인간이 만드는 도구이며, 이를 사용할 땐 항상 인간에게 어떤 결과를 가져다 주는지를 생각해야 한다”고 말했죠. AI를 다루는 사람의 윤리 의식이 중요하다고 강조한 것입니다.

그렇다면 AI의 윤리를 구축하기 위해서는 어떻게 해야 할까요? AIX 보고서에서는 이를 5가지 요소로 나누어 정의했습니다.

① 다양성을 고려하는 포괄성(Inclusivity)

AI 인공지능을 형상화한 이미지2

AI를 프로그래밍할 때에는 다양한 요소를 고려해야 합니다. 피부색, 종교, 민족성 등 AI를 접하게 될 사용자들의 여러 요소들이 반영된 ‘포괄성(Inclusivity)’이 필요하죠. 만약 개발자들의 밑바탕에 깔린 편견 등이 AI에 그대로 반영된다면, 인종 차별 이슈가 있었던 ‘안면 인식 시스템’처럼 사용자에게 불쾌감을 줄 수 있습니다.

조지아 공과대학교의 학과장 찰스 이스벨(Charles Isbel)은 “AI를 구축하는 과정에서 담당하는 사람들이 포괄성이 없다면, 모두 좁은 솔루션을 갖게 될 것입니다”라고 밝혔는데요. 이처럼 AI를 다루는 개발자들은 편견 없는 사고와 열린 시야가 필요합니다.

② 최종 사용자를 생각하는 가치(Values)

인공지능을 컨트롤하는 모습

인공지능 스피커나 스마트폰 등 이제 일상에서 AI는 쉽게 접할 수 있는 기술이 되었습니다. 그만큼 우리 삶의 방식에 큰 영향을 줄 수 있죠. 하지만 이런 AI의 핵심기술은 커다란 글로벌 기업들이 가지고 있습니다. 따라서 기업들의 서비스가 서로 호환이 되지 않는다면, 최종 사용자들은 불편함을 감수할 수밖에 없는데요.

일본 문부과학성 산하 과학기술 연구소 리켄(Riken)의 국제 문제 전무이사인 하라야마 유코(Harayama yuko) 박사는 AI와 관련된 민간단체들의 책임감에 대해 언급했습니다. “AI는 사회에 큰 영향을 미칠 수 있는 기술이기 때문에, 공공기관뿐만 아니라 모든 민간단체들도 사회에 대한 책임감을 가져야 한다”라고 밝혔죠. 이처럼 AI를 구축할 때, 상호 호환성과 같이 최종 사용자들을 위한 의미 있는 가치를 고려해야 합니다.

③ 현실과 기술을 조율할 수 있는 거버넌스(Governance)

규칙과 규범이 필요성을 강조한 판사봉 이미지

사물인터넷의 발전은 사람들에게 큰 편리함을 주었지만, 개인 정보 유출과 같은 부작용들도 나타났습니다. 안전한 미래 사회를 구축하기 위해선, 강력한 사이버 보안과 질서가 필요합니다.

보통 규칙과 규범을 정해 사회를 안정화시키는 건 정부의 역할인데요. 하지만 법률을 정할 때 인공지능의 성능을 고려하여 만들기는 쉽지 않습니다. 인공지능은 스스로 학습을 통해 더욱 정교해지고, 다양한 변수들을 만들어내기 때문인데요. 따라서 사람들이 안전하고 사생활을 보호받을 수 있도록, AI 기술자뿐 아니라 다양한 이해관계자들이 AI를 통제할 수 있도록 협업해야 합니다.

④ 투명성을 보장하는 데이터 개인정보보호 (Data Privacy)

개인정보를 보호하는 모습 연출한 이미지

군사적, 산업적 용도에서 사용되는 AI들은 높은 보안성을 가집니다. 하지만 일반 소비자들이 활용하는 AI 기술은 보완성이 낮고, 정보를 보호하기 위한 장치도 부족한데요. AI 시스템이 정교해지고 다른 서비스와 결합될수록, 개인정보는 남용될 위험이 높아진다고 할 수 있죠.

안전한 인공지능 서비스를 만들기 위해선 활용되는 데이터의 투명성을 높여야 합니다. 어떤 데이터를 수집했고, 왜 이것을 수집했는지 등 개인의 데이터를 추적, 관리함으로써 보안을 구축해야 하죠. 3A 인스티튜트(3AI: 3A instutute)의 부국장 알렉산드라 자피로글루(Alexandra Zafiroglu)는 “개인이 보고 듣는 것들을 기업이 어떻게 알고 있는지 말할 수 있는 투명성이 필요하다”라며 데이터 사용 및 수집에 대한 투명성을 강조했습니다.

⑤ 필요한 데이터만 수집하는 확고한 목적(Purpose)

개인정보 프라이버시를 보호하는 것을 형상화한 이미지

AI와 개인정보 프라이버시는 물과 기름의 관계와 비슷합니다. 작품을 추천하기 위해 나의 시청 데이터를 활용하는 동영상 플랫폼처럼, 인공지능을 더 편리하게 사용하기 위해선 방대한 양의 개인 데이터들이 필요하기 때문이죠.

하지만 이런 개인 데이터들은 사생활 침해와 같이 피해를 끼칠 수 있습니다. 때문에 AI 시스템을 프로그래밍할 때 이 데이터를 ‘왜’ 수집해야 하는지에 대한 명확한 목적을 AI에게 제시해야 합니다. 또한 그 목적에서 벗어나 있는 특정 데이터들은 적절한 방화벽을 통해 안전하게 보호해야 하죠. AI가 꼭 필요한 개인 데이터만을 수집한다면, 우리는 더욱 안전하고 편리하게 인공지능을 사용할 수 있을 것입니다.

인공지능의 두뇌를 형상화한 이미지

AI를 구축할 때 최종 사용자들을 위해 윤리적 위험성들을 고려한 인간 중심의 접근이 필요하단 것인데요. 페이팔(PayPal)의 수석 부사장 겸 CTO인 스리 시바난다(Sri Shivananda)는 “책임감 있고 윤리적인 AI에 대해서, 우리 모두 아직 배워가는 단계입니다”라며, “모두가 협력하여 AI 구현에 대해 새로운 표준을 정하고 윤리 규범을 준수해야 합니다”라고 밝혔죠. 이처럼 ‘윤리적 AI’를 만들기 위해서는 모두의 노력이 필요합니다.

지금까지 인공지능에 대한 ‘윤리’에 대해 알아보았는데요. 다음 시간에는 투명성(Transparency)에 대해 이야기해보겠습니다. 다음 이야기도 기대해주세요.

※ 이 글은 LG ThinQ  개발자 사이트(thinq.develper.lge.com) 내 블로그 내용을 재구성하였습니다.

※ AIX Framework와 상세한 AIX 보고서 내용은 www.aixexchange.com 에서 확인하실 수 있습니다.

LiVE LG의 모든 콘텐츠는 자유롭게 이용하실 수 있습니다.

다만 일부 글과 이미지는 저작권과 초상권을 확인하셔야 합니다.운영정책 보기