ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 자율주행차와 윤리적 딜레마 이야~~
    카테고리 없음 2020. 2. 19. 17:11

    >


    >


    도덕적 소견을 묻는 아주 유명한 질문을 하한선으로 던져본다. 브레이크가 지역 기차 운전사들입니다. 기차는 선로에서 작업 중인 인부 5명을 향해서 맹렬히 달리고 있다. 그대로 달리면 인부 5명을 해치게 된다. 마침 너의 앞에는 선로 변경 스위치가 있지만 그 스위치를 누르면 인부 5명을 살릴 수 있지만 또 다른 선로에 있는 노동자 한 사람을 해칠 수밖에 없다. 그럼 당신들은 스위치를 누르는 건가?이 질문을 묻는 설문의 연구에서 89%의 사람들이 스위치를 누르라고 답했습니다. 이번에는 질문을 바꿔보자. 너희들은 기관사가 아니라 그 정세를 지켜보는 구경꾼들이에요. 마침 자네 앞에는 큰 사람이 있는데, 이 사람을 선로에 놓으면 기차를 세울 수 있는데, 그 사람이 죽게 돼. 대신에 인부 5명을 살릴 수 있다. 너라면 큰 남자를 밀겠니?이 질문을 받은 사람들은 앞의 질문으로 골똘히 생각한다. 다시 내용하여 윤리적 딜레마에 직면하게 된다. 두 질문은 <정의란 무엇인가>의 저자 '마이클 샌델'이 자주 인용해 널리 알려진 일명 '트롤리 딜레마'다. 결론적으로 내용은 두번째 질문에 대다수의 사람들(78%)은 깍지 않다고 대답했습니다."최대 다수의 최대 행복"이라는 공리주의적 관점에서 보면 2개의 질문에 사람들의 반응은 모순되고 있습니다.우리는 다수를 위해 소수가 희생해야 한다고 소견하지만 동시에 다수를 위한 명분이 소수를 희생해서는 안 된다고 소견하는 이율배반의 존재가 된다. 과연 그럴까.최근의 뇌과학 발달은 저런 윤리적 딜레마에 대한 인간의 반응이 모순이 아니라는 근거를 제시한다. 심리학자 조슈아 그린은 fMRI(기능성 자기 공명 영상)을 이용 칠로, 2가지 질문을 받은 사람들의 뇌 활동을 비교할 점검을 했습니다.점검 결과를 보면 두 가지 질문에 반응하는 사람의 두뇌는 다르게 과도했다. 제1의 질문처럼, 스위치만 조작 칠로 결정을 내릴 경우에는 전두엽이 활성화하는 사람이 많았는데, 이는 그 한반도에 대해서 이성적 판단을 내렸다는 뜻이다. 그러나 2번째 질문처럼 누군가를 찍는 행동, 즉 적극적인 행위가 필요한 경우에는 편도체가 활성화하는 사람이 많았는데 이는 그 한반도에 대해서 정성적 판단을 합니다라는 뜻이다.해석하자면, 인간이 윤리적 결단을 내려야 하는 순간에는 이성적 판단과 정서적 판단 사이에서 적절한 쪽을 선택한다는 뜻입니다. 그래서 트롤리 딜레마에 대한 인간의 반응은 모순되지 않는다. 조슈아 그린의 표현을 빌리자면 인간의 저런 행동은 이중처리 방식의 도덕적 뇌를 가지고 있기 때문입니다.다만 이는 인간의 반응에 대한 근거를 제시했을 뿐 트롤리 딜레마에 대해 어떤 판단이 옳은지 사회적 합의에 도달한 것은 아니다. 만약 근로자 5명이 나의 가족이라면 어떻게 될까? 그래도 덩치 큰 사람을 밀지 않을까? 그때는 누군가를 밀어 가족을 돕는 것이 오히려 정서적 판단이 되지 않을까. 그렇다면 정서적 판단의 개입이 무조건 옳다고 할 수 있을까.지금까지 트롤리 딜레마는 대학의 정치철학 강의과인 시민을 위한 교양서적에서만 볼 수 있는 토론 주제였다. 저런 딜레마는 어디까지 과인간의 머릿속에서만 퍼져있던 지적유희였고 현실에서 일어나는 하나는 다소 거의 없었다. 그런데 정세가 바뀌어 내용이었다.어느새 우리는 4차 산업 혁명을 맞았습니다. 지금의 트롤리 딜레마는 인간 머릿속의 지적 유희가 아니라 개발자가 명확하게 입력해야 하는 알고리즘이 되어 내용이었다. 즉, 인간의 머릿속을 칭어과의 물건 또는 인공지능이 딜레마에 대한 판단을 내려야 하기 때문입니다. 예를 들어 자율주행차를 떠올려보자.


    >


    갑자기 브레이크가 촌락하고 있는 자율주행차가 있다고 소가족이 생각해 보자. 당싱로 달릴 경우 보행자 5명을 치게 되고 핸들을 꺾으면 보행자 한명을 치게 된다. 이 경우 자율주행차는 어떤 알고리즘을 가져야 하는가? 물론 인간의 이성적 판단과 마찬가지로 핸들을 꺾는 판단을 하는 알고리즘을 가져야 대다수 공감을 얻을 수 있었다. 그런데 핸들을 꺾어서 다치는 사람이 보행자가 아니라 자동차 탑승자라면? 자율주행차는 보행자와 탑승자 사이에 누구를 보호해야 할까.이 질문은 2016년 6월 과학 학술지'사이언스'에 실린 논문과 관계 있다. 자율주행의 사회적 딜레마(The social dilemma of automous vehicles)라는 제목의 이 논문은 사람들에게 위와 같은 질문으로 설문조사를 했다. 이 설문 조사에서 대다수의 사람들(78%)이 다수 보행자를 보호하는 것이 한층 더 윤리적이라고 답했다. 그런데 관심을 끈 것은 그 후 질문이었다.그럼 자동차 탑승자보다 보행자의 안전을 우선으로 하는 자율주행차를 구입합니까?눈치를 챘는지 모르겠지만 대부분의 사람들은 그런 차를 사지 않겠다고 대답했다. 이성적인 판단으로는 대다수의 보행자가 우선인데, 그 자동차 탑승자가 괜찮고 거과의 노화는 소가족일 경우에는 으레 딜레마에 빠져 스토리가 됐다.그렇다면 자동차 업체의 판단은 어떨까. 얼마 전 메르세데스벤츠 간부입니다원은 보행자보다 자동차 탑승자의 안전을 우선한다는 발언을 해 언론의 비판을 받았다. 제조사의 입장에서 보면, 자연스러운 결론일지도 모른다는 발언은 사회적 논쟁을 불러일으키기 일쑤였다 당시 영국 신문 데일리메일에서도 이런 기사를 실었다.메르세데스벤츠는 자율주행차가 방향을 바꿔 탑승자가 다칠 위험.을 감수하기보다는 아이를 친다고 인정했다."그런 비판은 있어도 대책이 없는 것이 현실이었다. 독일 연방교통부는 사고는 피할 수 없는 귀취로 자율주행차가 어떤 선택을 해야 옳은지 판정할 수 없다는 공식 입장을 밝힌 바 있다.그럼 다시 너에게 질문을 해봐야겠다. 이번에 너희는 자율주행차 개발자다. 위의 귀취로 트롤리 딜레마가 발생한 경우, 당신들은 어떤 판단을 내릴 것인가? 이제 너희에게는 머릿속에서만 일어나는 지적 유희가 용서되지 않는다. 개발자들이 알고리즘을 가지고 확실히 실행해야만 하기 때문에 판정하기 어려울 것이다 조슈아 그린이 증명한 이중처리 방식의 도덕적 뇌를 자율주행차에 당신에게 이식한다고 해도 결론을 내릴 수 없을 것이다. 다시 이야기해서 이성적 판단과 정서적 판단을 모두 동원해도 자율주행 알고리즘은 사회적 합의를 이끌어내기 어렵다. 단지 심증만 있을 뿐 자율주행차의 윤리적 딜레마를 연구하는 MIT의 라판 교수가 쓴 스토리가 그 심증을 대변한다.사람들은 괜찮음을 희생하는 차를 사지 않지만 다른 사람들이 그런 차를 사줬으면 좋겠다고 소견한다.정의란 무엇인가.


    >


    정의는 개발자의 알고리즘에 의해 실장되지 않는다. 그렇게 간단한 사고라면 영화처럼 배트맨이 슈퍼맨과 싸울 리 만무했고 암만이 캡틴 아메리카의 胸살을 잡지 않았을 것이다. 이들은 전체 정의의 편을 들었지만 각자의 신념에 따라 정의 대 정의는 얼마든지 충돌할 수 있다.트롤리 딜레마 본인의 자율주행차 알고리즘 사고도 마찬가지다. 4차 산업 혁명은 인간의 철학적 딜레마를 세상 밖으로 끌어내스토리앗다. 그러나 그 딜레마는 어느 쪽이 정의라고 쉽게 정의할 수는 없다. 정의할 수 없는 알고리즘은 하나의 버그이며 버그를 탑재한 자율주행차는 도로 위를 달릴 수 없다.이 같은 자율주행차의 윤리적 딜레마를 해결하기 위해 라판 MIT 교수는 모럴 머신(Moral Machine)이라는 플랫폼을 개발했다. 이것은 여러가지 딜레마를 설정해, 각 딜레마에 대해서 사람들의 생각을 수렴하는 플랫폼이었다.이처럼 다양한 딜레마에 대해 정량화된 데이터를 도출함으로써 사회적 합의를 도출하기 위한 노력이었다. 그 플랫폼은 약 2,600만개의 트롤리 딜레마에 대한 판단을 정량화시켰다. 그리고 탑승자와 보행자의 연령, 성별, 인종 및 행동 변화 등 여러 변수를 넣고 있어 하나 0개의 언어를 사용하고 다양한 행정부의 400만명을 대상으로 설문 조사한 데이터를 입력했다.이렇게 만들어진 "모럴 머신"의 대략적인 결론은 다음과 같았다. 우선 탑승자보다 보행자 안전이 우선했다. 그리고 성인보다 어린이를 보호한다는 판단이 많았다. 만약 핸들을 꺾어야 한다면 교통법규를 지키는 행인보다는 무단횡단 보행자를 칠 것이라고 판단했다. 송본인의 모럴 머신의 판단에도 차이점이 있었다. 이를 특정 행정부로 제한할 경우 결과가 달라 본인이 됐다는 것이었다.예를 들어 보다 많은 생명을 구하는 방향으로 판단한다는 응답이 하나 발죠크다면 과감히 같은 경우에는 교통 법규를 지키는 사람 하나 사람들을 피하고 무단 횡단 보행자들을 찍는다는 판단이 높은 봉 인터넷했다. 이런 모습은 여러 딜레마 속에서 다양하게 본인에게 나타났다. 결국 정부마다 가장 정의로운 판단의 기준은 달랐다.정의 혹은 도덕적 판단은 가치와 신념을 반영한다. 사람마다 다르며 좀 더 범위를 넓히기 위해서는 행정부 또는 문화에 따라 다를 수 있다. 얼마 전에도 행정부마다 다르게 적용되는 규제와 법이 존재한다. 예를 들어 차량 앞에 설치하는 보조 범퍼가 그렇다. 이 보조 범퍼는 충돌로부터 탑승자를 보호하기 위해 만들었지만 반대로 보행자는 다칠 위험이 높다는 조사 결과도 있다. 이 보조 범퍼는 영국에서는 불법이지만, America에서는 합법이었다 자동차의 LED 라이트도 마찬가지여서 이는 꽤 밝고 야간운전 때 좋지만 반대편 운전자는 눈부심이 생겨 위험하다. 이 LED 조명은 우리 본인 라에서는 불법이지만, 하나본에서는 합법적이었던 따라서 모럴 머신이 전 지구적 자율주행차 알고리즘을 개발했다고 해도 모든 행정부에 똑같이 적용하는 것은 사실상 불가능할 수 있다. 아마, 각 행정부 마다 자율주행의 도덕적 판단 기준을 달리할 것이고, 거기에 따라 행정부간에 다른 규제나 법안이 "탄생활"일 가능성이 높다. 사실 정부 간 차이도 사고지만 더 심각한 것은, 한 정부 내에서도 사회적 합의를 이끌어내기 어렵다는 점이다.자율주행차의 가장 궁극적인 모습은 무인 제동차다. 어쩌면 가까운 미래에는 인간의 운전이 위험하다는 이유로 전면 금지하는 법안이 허용될 가능성도 있다. 세계 보건 기구(WHO)에 따르면 매년 세계에는 하나 25만명이 교통사 그 때문에 사망한다. 만약 자율 주행 차가 상용화되면 사망자가 하나 0분의 한개 이하로 줄어들 것이라고 전문의들은 예상하고 있다. 이처럼 이상적인 자율주행 교통체계를 구축해 교통사고가 없는 세상을 꿈꾸겠지만 그 과정에서 택시운전사, 버스운전사, 트럭운전사 등은 일자리를 잃을 터였다, 아마도 많은 사람들이 파업과 시위를 통해 자율주행차에 반대할지도 모른다.


    >


    어쩌면 자율주행의 발전은 개인이 소유할 수 있는 자가용에도 제약이 따를 것입니다. 이렇게 되면 도로 위 차량이 줄어 교통체증이 사라지고 주차장 부족 문제도 해결될 텐데 줄어든 차량일수록 누군가 역시 손해를 보게 된다. 주차장 점포, 통행료업체, 카센터, 심지어 기사식당까지 많은 업체와 사람들은 이런 변이에 저항할 것입니다.뿐만 아니라 자율주행차가 화재를 일으켰을 때 발생하는 법적 문제도 골치 아픈 일입니다. 그것은 탑승자 때문일까, 아니면 제조사 때문일까? 고소를 해야 한다면, 어떤 고소를 해야 할지, 보험처리는 어떻게 해야 할지. 최근까지 보아온 수많은 문재들에 대해 해결 계획을 모색하고 있지만 버거운 것이 현실입니다. 어쩌면 이런 문재가 자율주행차의 기술혁신에 발목을 잡고 있다고 봐야 할 것이다.최근까지 테슬라 구글 우버 벤츠 도요타 등이 자율주행 기술에 이미 앞서 있다. 그러나 이들 작은 기업이 속한 나라들을 보자. 미국, 독일, Japan이 자율주행차의 상용화에 가장 가까이 다가설 것 같지만, 현실은 여러 가지 딜레마 속에서 사회적 합의를 도출하기까지 어려움을 겪고 있다.어쩌면 중앙집권적인 국가일수록 자율주행차의 딜레마를 해결하는 것이 가장 쉬울 수 있다. 예컨대 애덤 스미스가 이야기한 보이지 않는 손보다 정부의 시장개입이 더 많은 나라라면, 역시 택시기사가 시위를 할 수 없고 트럭기사가 파업을 하기 어려운 나라라면 모든 법적 제도적 난제를 최고 권력자의 의사자결 한 방에 조용히 잠재울 수 있는 나라가 된다.만약 북한이 핵무기 개발을 포기하고 그만한 노력을 자율주행차에 쏟는다면 세계에서 가장 먼저 자율주행차가 상용화된 나라가 되지 않을까.공리주의가 옳은가


    >


    서기 20하나 8년 7월 한 날 아침, 나쁘지 않아는 스마트 폰 안에 뒤(뒤)은 인공 지능 빅스비(Bixby)에 매우 어려운 철학적 난제를 물어보기로 결심했습니다. 그것은 모든 인류에게 있어 한번쯤 생각해 본 적이 있을 것이고, 트롤리 딜레마만큼 아름답지 않았기 때문에 대답하기 어려운 질문이었다." 빅스비, 어머니는, 나쁘지 않다, 아버지가 나쁘지 않니?" "그렇다고 빅스비가 대답했습니다.음 부모라는 좋은 단어가 있네요.맥빠지는 얼빠진 대답이었다. 물론"후"라고 하는 아키타조도 넣어, 꽤 상념하고 있는 흔적이 엿보이고 있습니다. 어쩌면 인공지능에 인간의 감수성이 훗날 정서적 판단을 기대하는 것은 불가능할지도 모른다.아마 인공지능은 공리주의를 표방할 터였다.최대의 행복이라는 공리주의는 모든 판단에서 계산 가능성을 전제로 할 것이다. 계산은 손해보다 이익이 더 많은지 측정하는 것이었다 이런 이유로 공리주의는 도덕철학이라기보다 도덕과학이라고 할 것이다.윤리적 판단 증거를 비용-편익 분석만으로 이해한다면 쉬워진다. 뿐만 아니라 4차 산업 혁명의 첨단 기술에 심어야 한다 도덕적 알고리즘을 적용하기에도 용이하다. 모든 사물을 통해 광범위한 데이터를 수집할 수 있는 빅데이터 기술은 이런 공리주의적 판단에 수치화된 증거를 제시할 수 있기 때문이었다.보행자와 탑승자 중 누구를 살리는 것이 이득인지 판단하고, 아이와 성인 중 누구를 살리는 것이 이득인지 판단할 것이다 어쩌면 아랍인인지 미국인인지 인종을 구분하는 데이터 값이 있을지도 모르고 유명인이나 일반 시민 중 누구를 살리는 것이 이익이 높은지 수치화된 데이터를 제시할 수도 있을 것이다.20하나 7년 8월 23일 세계 최초로 독일은 자율 주행 차에 대한 윤리 지침을 발표했습니다. 독일 연방 교통성 그리고 한가지 4명의 과학자와 법률 전문가로 구성된 '디지털 인프라 후(후)당 윤리 위원회'은 자율 주행 기술이 지켜야 할 20가지 지침을 만들었다.이 지침에서 주목할 만한 것은 인명에 대해 단화된 지침은 불가능하다는 스토리였다. 연령, 성별, 인종, 장애아에 대해 우선순위를 판단해서는 안 된다는 것을 의미한다. 다시 한번 예기해 아이를 구하기 위해 노인을 죽이는 것은 올바른 판단이 될 수 없다. 이런 독일의 가이드라인은 인간의 존엄성에 대해 공리주의적 판단을 차단했다는 점에서 의의가 있었다. 다만 법적인 강제성은 없었다.한 가지 아쉬운 점은 트롤리 딜레마에 대해서도 판단을 유보했습니다. 결국 방통위가 고심 끝에 내린 결론은 다음과 같다.차량 시스템은 인간의 자결을 따라야 한다.인간의 자결을 대신해야 할 자율주행차에 인간의 자결을 따르라고 예기하는 다소 어이없는 결론이지만 어쨌든 인간의 존엄성과 가치판단을 아직 기계로 양보할 수 없다는 의지의 표명으로 이해해야 할 것이다.공리주의는 쉽게 계산할 수 있다는 이점이 있다. 수치화된 데이터로 무장한 공리주의는 4차 산업 혁명에 깊이 관여할지도 모른다. 그러나 우리는 모든 가치가 비용-편익 분석만으로는 환원할 수 없다는 진품을 알고 있다. 알고는 있지만, 자율 운전 알고리즘에 들어갈 수 있을 정도로 증명되지 않았습니다. 철학과 하면 마치 하나 9세기의 나쁘지 않고 20세기 정도에 머무르고 있는 감정을 받기이다. 그만큼 철학이 발전하지 못한 것은 아닐까. 자율주행, 인공지능, 빅데이터가 확산되는 세상인데 아직 우리는 아리스토텔레스가 나쁘지 않다. 그런 철학자는 인공지능 빅스비와 대화한 경험도 없다.이는 그들이 남긴 철학적 유산을 4차 산업 혁명에 맞추어 발전시켜야 한다. 가상현실과 증강현실이 인간사회에 미치는 영향을 탐구해야 하고, 사물인터넷과 빅데이터가 인권을 침해하는 것이 아니라 인권을 보호할 수 있도록 해야 하며, 로봇과 인공지능이 인간을 대신할 것이 아니라 인간을 풍요롭게 해야 한다. 우리가 철학적 난제를 회피하면서 또는 윤리적 딜레마를 계산하기 쉬운 공리 주의에만 의존하면서 자율 주행 차와 4차 산업 혁명은 인간에게 재앙이 되는 것이었다 든 영감을 준 자료 BOOK호모 제우스(미래사)/유발 하라리/김영사/20하나 7.05. 하나 9BOOK, 선악/조슈아 그린/시공 회사/20하나 7.02.20BOOK, 정의란 무슨?/마이클 샌델/와이즈 베리/20개 4)하나 하나.20SERICEO자율 주행 차가 바꾸는 한국의 도시/정 쿠민/20하나 7.09. 하나 8


    전편을 보다


    >



    댓글

Designed by Tistory.