투표

[AI 토의 시리즈2] AI의 ‘잘못’, 누가 책임져야 할까요?

2023.05.26

4,387
9
디지털 기술로 민주주의의 미래를 만드는 사회적협동조합 빠띠의 캠페인즈팀입니다.
챗 GPT의 등장과 함께 인공지능(AI)이 큰 관심을 받고 있습니다. 새로운 기술의 등장은 사회를 발전시키기도 하지만 여러 문제를 발생시키기도 합니다.
인공지능과 관련해서도 개발부터 규제까지 여러 논의가 진행중입니다. 인공지능은 우리 삶에 어떤 영향을 끼칠까요? 우리는 인공지능과 함께 살아갈 미래를 맞이할까요? 그렇다면 우리는 어떻게 대비해야 할까요?
이번 시리즈는 인공지능의 개발을 비롯해 인공지능으로 인해 발생할 수 있는 문제들을 다뤄보려 합니다. 
지난 한 주간 캠페인즈에선 [AI 토의 시리즈1] AI 개발 어떻게 해야 할까요?라는 주제로 투표가 진행됐습니다. 캠페이너들로부터 가장 많은 표를 받은 선택지는 ‘범용 인공지능의 위협을 막을 규제와 대책을 마련해야 해요’였는데요. 그래서 시리즈의 두 번째 주제는 인공지능이 일으킨 문제의 책임소재입니다. 여러분은 어떻게 생각하시나요?

*이번 투표(5/26~6/2)에서 가장 높은 표를 받은 주제로 다음 콘텐츠가 만들어집니다.

출처: 빙 이미지크리에이터빙 이미지크리에이터

지난 3월, 미국 공화당의 유력한 대선주자였던 도널드 트럼프 전 미국 대통령이 뉴욕 맨해튼에서 경찰에 의해 연행되는 이미지가 SNS에 유통되었습니다. 해당 사진은 실제 모습처럼 생생한 탓에 SNS에서 큰 화제를 일으켰습니다. 하지만 AI에 의해 제작된 이미지라는 게 곧 드러났죠. 이러한 허위 정보, 이미지 생성 사례가 등장하면서 미국은 인공지능에 의해 민주주의가 훼손될까 우려를 표하며 생성형 AI에 대한 각종 규제를 의논하기 시작했습니다. (2023.05.20 한국일보)

인공지능이 활용되는 다른 분야에서도 문제가 발생하고 있습니다. 전기자동차의 보편화와 함께 등장한 자율주행도 그 중 하나인데요. 업계의 선두주자인 테슬라를 비롯해 우버, 웨이모 등 여러 업체에서 다양한 사고 사례가 보고됐습니다. 특히 2018년 3월엔 우버에서 자율주행차 첫 사망사고가 발생했습니다. 당시 사고는 자율주행 중에 보조 운전자인 우버의 모니터링 담당자가 스마트폰에 한 눈을 판 사이 발생해 논란이 일기도 했습니다. (2021.05.31.AI타임즈)

인간처럼 자각 능력을 갖춘 범용 인공지능(AGI)의 개발은 예측할 수 없는 문제가 발생할 수 있다는 우려로 이어집니다. 범용 인공지능 등 인공지능으로 불거진 문제를 대비하며, 누구에게 어떻게 책임을 물을 것인지 논의가 필요합니다. 인공지능의 사용자 개인에게 책임을 물어야 할까요? 혹은 인공지능 기술을 제공한 기업에게 책임을 물어야 할까요? 그것도 아니라면 인공지능, 그 자체에 책임을 물어야 할까요? 캠페이너 여러분은 어떻게 생각하시나요?


🚩인공지능은 도구일 뿐이니 이용자가 활용을 유의해야 해요.

인공지능 기술이 보편화 되면서  문제를 이용자 차원에서 책임지고, 해결하려는 시도들도 등장했습니다. 과학학술지 ‘사이언스’는 인공지능이 생성한 이미지, 그림, 그래픽을 논문에 기재하는 것은 지침 위반이라고 판단해 심사 배제 처분을 결정했는데요. 사이언스지는 “기계는 중요한 역할을 하지만 가설을 세우고 실험을 설계하고 결과를 이해하는 사람들을 위한 도구일 뿐”이라며 “궁극적으로 결과물은 우리 머릿속에 있는 멋진 컴퓨터에서 나와야 하고, 또 그것에 의해 표현되어야 한다”라는 입장을 밝혔습니다. (2023.01.29 한겨레

앞서 설명한 우버의 자율주행차 사망사고에선 미국 수사기관들이 이용자의 책임을 주장하기도 했습니다. 운전자였던 라파엘 바스케스는 “차량의 운행을 감시할 목적으로 탑승”했기 때문에 죄가 없다고 주장했지만 경찰은 “바스케스가 도로를 보는 대신 아래를 내려다보는 행동을 되풀이했다”며 사고의 책임을 보조 운전자에게 물었습니다. 검찰도 비슷한 취지로 바스케스를 기소했습니다.(2020.09.16.연합뉴스)


🚩인공지능의 잘못이 발생하지 않도록 개발자, 기업이 대비해야 해요. 

애플의 공동설립자인 스티브 워즈니악은 AI가 나쁜 행위자에 의해 악용될 우려를 표하며, 결국 개발자와 기업이 인공지능의 잘못을 책임져야 한다고 이야기했습니다. AI 콘텐츠에 명확하게 분류를 지정하고 해당 부문에 대한 규제를 하는 등 “인간이 AI에 의해 생성된 것에 대해 책임져야 한다”며 빅테크 기업에게 책임을 물어야 한다고 주장했습니다. (2023.05.09 IT조선)

제리 캐플런 스탠퍼드대 교수는 테슬라의 자율주행 자동차를 예시로 들며 인공지능으로 인해 발생한 문제의 책임이 기업에도 있다고 지적했습니다. 캐플런 교수는 “기술 개발자나 기업은 서비스를 제공할 뿐, 법적 책임을 묻기는 어렵다는 주장은 ‘법적으로는’ 옳으나, 법적인 문제를 떠나서 인간의 실수에 취약성이 있는 제품을 만들어 판매해도 되는가”라고 이야기했습니다. (2017.07 동아비즈니스리뷰)


🚩인공지능이 책임지도록 하는 방안을 마련해야 해요.

앤드류 셀브스트 UCLA 교수는 앞서 언급한 우버의 자율주행차 사망사고를 다룬 논문 ‘과실치사와 AI 사용자’에서 “더 이상 AI를 법 뒤에 숨게 해선 안 된다”라며 인공지능이 책임질 수 있는 방안 마련을 촉구했습니다. 셀브스트 교수는 사람과 같은 자각능력을 갖춘 범용인공지능의 목표는 사람의 한계를 뛰어넘는 것이라고 정리했습니다. 이어 범용인공지능을 미래 사회 구성원으로 인정하고, 받아들이며 범용인공지능에게 적용할 법이 필요하다고 주장했습니다.

셀브스트 교수의 논문에 인용된 ‘AI로 인한 의료과실’ 논문의 저자 니콜슨 프라이스 미시건 주립대 교수는 의료 분야에서 개인 건강정보 남용, 프라이버시 침해를 제한하는 법의 필요성을 주장해왔습니다. 프라이스 교수는 “AI 헬스케어 등장 이후 이로 인한 과도함과 미흡함이 공존한다”고 주장했습니다. 이를 두고 셀브스트 교수는 “의료계 발전을 위해서도 새로운 ‘AI 과실법’을 제정함으로써 급격한 변화에 제동을 걸고 규제 패러다임을 바로 세우는 시기가 필요하다”라며 의료 분야에서도 규제가 필요하다고 설명했습니다.(2020.10.15.AI타임스)


💁🏻‍♀️인공지능의 잘못, 누가 책임져야 할까요? 여러분의 의견을 들려주세요!

💡인공지능의 잘못은 누구의 책임일까요?

📑선택지 중 하나를 고르고 댓글에 의견을 남겨 주세요!

🤔고민 되나요? 질문이나 기타 의견이 있나요? 댓글로 자유롭게 남겨주세요!

[AI 토의 시리즈2] AI의 ‘잘못’, 누가 책임져야 할까요?
종료 26년 초과 · 총투표 182회 · 회원 투표 19명

이슈

인공지능

구독자 129명
🚩인공지능의 잘못이 발생하지 않도록 개발자, 기업이 대비해야 해요

개발자로서의 책무성이 요구됩니다.

🚩인공지능의 잘못이 발생하지 않도록 개발자, 기업이 대비해야 해요 🚩인공지능이 책임지도록 하는 방안을 마련해야 해요

법안을 마련해야 한다는 점에 동의합니다. 다만 인공지능 자체가 책임을 진다는 것은 실체가 없기 때문에 실제로는 문제를 발생시킨 인공지능을 개발하고 상용화한 주체(회사, 개인...)가 법적 책임을 질 것이라고 생각합니다.

지경은 비회원

창작 분야에서 활동하는 사람의 입장으로서 AI의 활동을 그리 좋은 시선으로 볼 수 없습니다.

🚩인공지능이 책임지도록 하는 방안을 마련해야 해요

인공지능에게 일종의 '생존 코드'나 '상벌점 코드'를 부여하고, 인공지능이 스스로 책임을 질 수 있도록 유도해보면 어떨까 싶네요. 다만 이렇게 될 경우 개발자나 기업이 대비하는 것도 있겠지만, 이용자들이 함께 가이드를 마련해야겠죠.

🚩인공지능의 잘못이 발생하지 않도록 개발자, 기업이 대비해야 해요

기존처럼 인공지능을 만들고 관리하고 수익을 얻는 주체인 기업이 책임을 져야한다고 봅니다. 다만 기업 위주로 관리되지 않는 AI 가 나올 수 있는데 정부 역할도 필요하다고 봅니다.

페이크 사진 유포 등을 막기 위해 AI 로 작업한 이미지인지 식별할 수 있는 데이터를 넣으면 좋을 것 같네요.

🚩인공지능은 도구일 뿐이니 이용자가 활용을 유의해야 해요 🚩인공지능의 잘못이 발생하지 않도록 개발자, 기업이 대비해야 해요

모든 인간들이(인공지능 이슈 포함 모든 일에) 작은 행동에 대한 것이라도 책임을 질 수 있게 제도가 갖춰지면 좋겠어요.

🚩인공지능은 도구일 뿐이니 이용자가 활용을 유의해야 해요 🚩인공지능의 잘못이 발생하지 않도록 개발자, 기업이 대비해야 해요 🚩인공지능이 책임지도록 하는 방안을 마련해야 해요

이 문제에 대해서는 양보 하기 어렵네요. 이용자, 인공지능 개발 기업, 인공지능 자체 모두에게 공통적으로 적용할 법안과 각각 특징에 맞는 법안이 나와야 한다고 봅니다.

🚩인공지능의 잘못이 발생하지 않도록 개발자, 기업이 대비해야 해요 🚩인공지능이 책임지도록 하는 방안을 마련해야 해요

어떻게 개발해도 악용하는 사람들이 생길 수 있습니다. 하지만 그 전에 개발과정에서 어느 정도는 윤리적 절차와 가이드라인을 마련해야 합니다. 그런 의미에서 기업이 제대로 대비해야 문제가 줄어들 것이라고 생각합니다. 마찬가지로 기업만의 책임이 아니라 국가 차원에서 대비해야할 필요가 있어보입니다. 선택지에 설명된 것처럼 범용 인공지능이 등장한다면 지금 우리가 사용하고 있는 인공지능과는 전혀 다른 차원의 문제가 생길 겁니다. 그런 문제들을 사전에 대비할 수 있도록 방안을 마련해야 합니다.

🚩인공지능의 잘못이 발생하지 않도록 개발자, 기업이 대비해야 해요 🚩인공지능이 책임지도록 하는 방안을 마련해야 해요

사고가 일어나지 않도록 하기 위해선 사용자의 '의지'보다 '환경'이 더 중요하다고 생각합니다. 그래서 인공지능을 개발하는 개발자나 기업이 사고를 막을 수 있는 방법을 미리 강구해야 한다고 봅니다.

[AI 토의 시리즈2] AI의 ‘잘못’, 누가 책임져야 할까요?
종료 26년 초과 · 총투표 182회 · 회원 투표 19명