자율주행자동차, AI 판결, 인공지능이 지닌 윤리적 딜레마 –

인공지능이 우리 생활 속으로 다가오고 있습니다.이미 우리 생활의 일부가 되었어요.

AI로 인해 우리의 삶이 점차 편리해지고 있는 것은 사실이지만 AI로 인해 피해를 보고 있는 사람도 늘고 있고 인공지능 기술이 많은 분야에서 활용됐을 때 윤리적 딜레마도 적지 않습니다.

이에 따라 AI를 어떻게 활용할 것인지에 대한 논의가 활발히 진행되고 있는데, 인공지능을 둘러싼 다양한 논란과 인공지능이 가지고 있는 윤리적 딜레마는 무엇이 있을까요?

지금부터 알아보겠습니다!

인공지능 자율주행차가 내리는 선택으로 인한 윤리적 딜레마

인공지능 자율주행차가 달리는데 갑자기 도로로 사람이 뛰어들었다.

한 명은 노인, 다른 한 명은 어린 아이다.

2명 중 1명에 대한 인명 손실은 불가피하다.

인공지능 자율주행차는 누구를 원할까.

인공지능 자율주행차가 벼랑길을 달리던 중 5명이 뛰어들었다.

절벽길로 방향을 바꾸면 5명을 구할 수 있지만 탑승자는 절벽 아래로 떨어지게 된다.

인공지능 자율주행차는 어떤 선택을 할까.

인공지능 자율주행차가 고속도로를 달리고 있다.

왼쪽에는 SUV 차량이 달리고 있다.

그런데 앞서 가던 트럭의 적재물이 사라지는 것이다.

이때 인공지능 자율주행차는 어떤 결정을 내릴까.

왼쪽을 향해 SUV와 충돌할 것인가, 오른쪽을 향해 오토바이와 충돌할 것인가, 아니면 트럭 적재물과 충돌할 것인가.

출처 : Ted-ed | 자율주행차의 윤리적 딜레마 / 패트릭 린

인공지능 자율주행차는 어떤 결정을 내릴까요?

어떤 결정을 내리는 것이 윤리적으로 가장 올바른 선택일까요?

인공지능 자율주행차 시대가 열리면서 그 논의가 활발해지고 있습니다.

그 이유는 인공지능 자율주행차도 프로그래머 또는 정부의 정책결정자들에 의해 짜여진 프로그램대로 움직이고 있기 때문입니다. 즉, 어떤 선택을 할 것인가는 우리의 논의에 달려 있다는 것입니다.

이러한 윤리적 논의를 담은 연구도 활발히 이루어지고 있습니다.

예를 들어 2015년 MIT 저널에 소개된 프랑스 툴루즈 경제대학 연구원 J. F 보네폰의 논문에 따르면, 다수의 사람들은 설령 운전자가 희생되더라도 다수를 구하는 것이 좋다고 답했다고 합니다.

2018년 10월 24일 세계적인 과학저널 네이처는 233개국 230만 명을 대상으로 조사, 분석한 결과를 발표했습니다.

여기서 연구팀은 탑승자와 보행자의 성별, 숫자, 애완견 동승 등의 조건으로 13가지 시나리오를 만들어 상황에 따른 응답자들의 선택을 들었다고 한다.

그 결과 대체로 남자보다는 여자, 성인 남자보다는 어린이나 임산부, 동물보다 사람, 소수보다는 다수, 노인보다 젊은 사람, 무단횡단자보다 준법자를 선택했다고 해서 동서양의 응답자들의 선택 경향도 달랐는데요.

예를 들면 서구권에서는 인원이 많을 때는 어린이나 몸이 약한 사람을 구하는 것이 선호되었는데, 동양권에서는 보행자나 교통법규를 지키는 것이 더 안전해야 한다 라는 선택을 했다고 합니다.

자,여기서문제가있습니다.

과연대부분의사람들이이선택이옳다고생각하는데,절대로옳은선택이옳을까요? 예를 들어, 다수의 사람을 돕기 위해 운전자를 희생시켰을 경우 운전자를 희생시키는 인공지능 자율주행차를 과연 사람들은 구입하고 싶어할까요?

“그리고 통상적인 상황에 직면했을 때 내리는 본능에 의한 즉결(즉결)과 멀리서 상황을 보면서 내리는 결정은 다릅니다”

실제상황이발생했을때인공지능의도덕적판단과인간의심적상태가달라질수있다라는거예요. 지금의 답변과 상황에 속하게 되었을 때 본인의 본래 답변이 내리는 결정은 다를 수 있습니다. 이것뿐일까요?

우리는 개인의 선택도 중요하지만 이에 따른 법적 책임으로부터 자유로울 수 없습니다.

법은 어떤 선택을 과연 지지할까요?

굉장히 어려운 문제예요.

그 결정은 알고리즘을 짜는 자동차 회사에 달려 있지만, 사실 그들의 결정은 상황이 발생할 경우 심각하고 복잡한 법정 분쟁으로 이어지기에 충분합니다.

이러한 이유로 운전석에 사람이 앉지 않고 완전히 자율주행차 선택에 의해 운행되는 자율주행차는 상용화가 어렵다는 주장도 제기되고 있습니다!

출처 : AI 자율주행차, 윤리적 딜레마 문제 출처 : [이제부터는 자율주행이다]③ “AI 판단 믿어도 되나” 윤리 딜레마 출처: 누군가를 죽여야 하는 긴급 상황… 인공지능은 어떤 선택을 해야 하나.

2) 인공지능이 판사를 대체할 수 있을까?세상에서 가장 공정한 판결을 내려야 한다면 오히려 사람보다는 AI가 나을까요? 판결이라는 것이 단순히 법률 조항이나 판례에 따라 내려지는 것이라면 AI가 판사를 대신할 수 있을 겁니다. 하지만 판결이란 법 외에도 법관의 양심과 고도의 가치판단이 요구되기 때문에 AI의 완전한 선택만을 믿을 수 없습니다.

게다가 판결을 내리기까지 원고와 피고 측의 첨예한 대립을 듣고 이들과의 소통을 바탕으로 도덕적 판단이 필요한데, AI가 모든 것을 소상히 이해하고 판단하는 것은 무리이기 때문입니다.

다만 AI가 판결 패턴을 익히는 데 매우 빠른 학습 능력을 보여주기 때문에 복잡한 재판은 모르겠지만 단순 재판에 대해서는 도움이 될 것이라는 전망도 나오고 있습니다.

[연구] “AI 판사 판결 정확도는 79%”

3. 인공지능 시대 우리의 사생활은 지켜질까?

언젠가 AI 스피커가 주인의 사적 대화를 듣고 녹음한 뒤 연락처 명단에 있는 사람들에게 이를 발송한 사건이 있었어요.

또한 수년 전까지만 해도 인공지능 챗봇의 성능을 높이기 위해 개발사 측이 실제 사람들의 메시지 앱 대화를 수집했던 사건 등도 있어 사회적 논란을 불러일으켰습니다.

여기서 두 가지 우려를 가질 수 있습니다.

우리의사생활을AI가항상물어보고있다는점,그리고우리가모르는사이에우리의정보가저장되고때로는외부로유출된다는점,마지막으로우리의개인정보가익명화되어개발사측에보내지는것이아니라개발자를비롯한관련업무종사자들이완전히우리의정보를볼수있다는점.

이는 데이터의 사용법이나 개인정보보호법과도 밀접하게 관련되어 우리의 정보가 어떤 방법으로 비식별화 데이터화되는 등 기술적 논의와도 관련되어 있습니다.

다만, 아직 우리의 개인정보를 어떻게 보호할 것인지에 대한 법안이나 기술적 논의가 확립되지 않았으며, 앞으로도 꾸준히 논의가 진행될 것으로 보입니다.

출처 : 일다: AI 시대에 우리의 사생활은 지켜질까?

우리는 윤리적 딜레마를 가까스로 해소할 때 인공지능을 더 올바르게 활용할 수 있습니다.

해결되기까지 상당히 오랜 시간이 걸릴 것으로 예상됩니다.

여러분도 힘을 합쳐주세요!

#광주광역시교육청 #광주시교육청 #인공지능 #윤리 #딜레마 #자율주행차 #판결 #프라이버시 #침해

error: Content is protected !!