2024.03.28 (목)

  • 구름많음동두천 20.9℃
  • 구름조금강릉 22.7℃
  • 흐림서울 21.7℃
  • 맑음대전 24.6℃
  • 맑음대구 25.7℃
  • 구름조금울산 23.8℃
  • 맑음광주 23.4℃
  • 구름조금부산 25.1℃
  • 맑음고창 23.7℃
  • 구름많음제주 23.0℃
  • 구름많음강화 21.1℃
  • 구름조금보은 22.0℃
  • 맑음금산 23.5℃
  • 구름조금강진군 24.4℃
  • 구름조금경주시 25.0℃
  • 구름조금거제 24.9℃
기상청 제공

[창간특집⑩] AI의사의 법적 지위

박석주 법무법인 오른 변호사 /대한임상피부치료연구회 법률자문위원

인공지능의 의사 대체 가능성은 다양한 방법으로 구체화되고 있다. 2016년 이세돌과의 격전으로 이름을 알린 알파고는 구글의 자회사 딥마인드의 작품이다. 딥마인드에서는 알파고의 원리와 동일한 심층 인공지능 기술인 심층 큐 네트워크(Deep Q-network)를 이용해 눈의 영상자료를 분석해 질병을 진단하는 AI를 개발했다. 딥마인드는 그뿐만 아니라 엑스레이, 컴퓨터 단층촬영, 자기공명영상 같은 의료영상 분야와 병리 슬라이드, 심전도, 뇌파, 근전도 등 이미지 형태로 이루어지는 모든 종류의 검사에 있어 특유의 딥러닝 방식을 통해 정확한 진단을 내릴 수 있는 인공지능 개발에 박차를 가하고 있어 종전 인간 의사가 담당한 많은 역할을 대체할 기반을 만들어내고 있다.

 

이와 같이 의료분야의 인공지능은 크게 의료 데이터의 분석을 통한 의학적 통찰력 도출 이미지로 나타나는 의료 데이터 분석과 판독 의료데이터를 통한 질병 예측과 예방의 유형으로 나눌 수 있다. 굳이 실리콘밸리의 유명한 창립자이자 투자자인 비노드 코슬라(Vinod khosla)의사의 80%는 인공지능이 대체할 것이라는 발언을 끌어오지 않더라도, 향후 의료를 포함한 모든 직역에서 인공지능과 인간의 공생이 필요불가결한 일이라는 것은 누구나 공감할 것이다.

 

인공지능의 개발은 전무후무한 4차 산업혁명의 결과물이다. 의료계, IT업계, 교육계, 철학계, 법학계 모든 분야에서 새로운 연구의 주제이자 미지의 대상이다. 법학계에서는 특히 인공지능과 관련된 민·형사상 법적 책임을 어떻게 논해야 할 것인지에 대해 깊은 고민에 빠졌다. 함무라비 법전부터 이어진, 혹은 그 전부터 있었던 법부터 지금까지의 법은 모두 그 수범자를 사람으로, 넓혀봐야 사람이 운영하는 법인으로 전제하고 만들어진 것이었다.

 

우리 민법은 인()이라는 장을 두고 사람은 생존한 동안 권리와 의무의 주체가 됨을 밝히고 있으며, 형법은 범죄가 되는 행위(行爲)에 대해 규정함으로써 사람의 의지에 따른 행동에 대해서만 책임을 묻는다. 즉 사람의 의지가 담기지 않은 잠꼬대라든지, 사람이 아닌 로봇에 의한 피해라든지 하는 것은 애초에 법으로 규율할 대상이 아닌 것이다.

 

그러나 인공지능의 등장으로 인해 종전에는 직접 연결되었던 의사와 환자 사이에 인공지능이 매개가 되는 수많은 경우를 상정할 수 있게 되었다. 예를 들어 인공지능 시스템을 통해 환자의 영상을 촬영한 후 그 진단과 치료법까지 인공지능의 도움을 받는다면, 의사와 환자 사이에는 인공지능이라는 새로운 매개체가 개입하게 된다.

 

이런 경우에 그 판독에, 진단에, 처방에 오류가 있었다면 누가 책임을 져야 하는가? 인공지능 프로그램을 제작하거나 공급한 회사가 책임을 져야 하는가, 인공지능이 처방한 치료법을 선택한 환자의 오롯한 책임인가, 아니면 최종 진단과 결정을 내린 의사에게도 책임이 있는가? 마지막으로 인공지능 자체에 민·형사상 책임을 지우는 것이 과연 가능한 것인지, 가능하다면 어떤 책임을 물어야 하는지에 대해서까지 수많은 논의가 필요하다.

 

우선 인공지능의 개발 단계에 따라 인공지능과 인간의 법적 책임을 달리 논해야 한다. 현 단계에서의 인공지능은 아직 인간의 개입 없이 홀로 독립된 존재로서 사물을 인식하고 추론, 문제해결, 학습하는 단계에는 이르지 못했다. 4차 산업혁명의 주역인 사물인터넷, 인공지능, 자율주행차 모두 인간의 제어가 필요한 단계에 있으며, 그 정보 분석력도 아직 인간의 경험과 지식수준에 미치지 못하는 경우가 많았다.

 

한 예로 몇 년 전 IBM에서 개발한 암진단 인공지능 왓슨 포 온콜로지는 국내 몇몇 병원에 도입되어 암환자에 대한 진단과 추천 치료법을 제안하였으나, 의료진이 내린 치료법과의 일치율이 50% 정도에 그치는 등 실효성에 많은 논란이 제기되었다. 이 경우, 왓슨 포 온콜로지라는 시스템을 이용한 인간(제작자, 의료진, 환자)의 책임여부가 문제될 뿐이다.

 

이와 같이 현 단계에서의 인공지능은 4차 산업혁명에서 기대되는 궁극적 진화 단계의 인공지능이라고 볼 수 없는바, 인간의 도구로서 보조적 기능을 수행할 뿐이라는 점에서 인공지능 도입으로 인한 민·형사적 책임의 패러다임이 완전히 바뀌는 변화를 가져오지는 못하고 있다.

 

그러나 인공지능에 대한 인간의 개입 정도는 앞으로 점차 줄어들 것으로 보인다. 완전한 인공지능, 즉 인간의 경험과 판단력을 뛰어넘는 인공지능의 도입으로 그 신뢰도가 지금과 비교할 수 없는 수준에 이른다면(소위 강한 인공지능’) 과연 인공지능의 판단으로 인한 책임은 누가 질 것인가? 만약 인공지능 의사가 실수를 범해 오진을 내리고, 이에 따라 환자에게 잘못된 치료법을 적용하게 된다면, 인공지능은 새로운 인격으로서 그 스스로가 법적 규율의 대상인가? 아니면 종전의 물건과 다를 바 없이 이를 창조한 자, 운용한 인간만이 책임을 질 것인가? 이 문제에 대한 답은 결국 법철학 문제로 귀결된다.

 

인공지능에 법적 책임을 물을 수 있는가에 대한 답을 논하기 위해서는 과연 인간을 인간답게 만드는 것은 무엇인지, 법적 책임을 조율하는 여러 장치(형사미성년자에게 형사책임을 묻지 않는 것, 심신미약자의 책임을 감경하는 것 등)의 존재 의미와 이러한 장치를 인공지능에 적용할 수 있는지 등 온전히 왜 법이 인간에 대해 이러한 규율을 하고 있었던가, 즉 규율의 이유와 근거는 무엇인가라는 법철학 문제에서 출발해야 하기 때문이다.


법이 인간에게만 책임을 물었던 것은 인간만이 자유 의지를 가지고 행동할 수 있으므로 그 행동에 책임질 의무가 있기 때문이었다. 그렇다면 인공지능에게 책임을 물을 수 있기 위해서는 최소한 그 인공지능의 결정과 작용이 인간의 자유의지에 의한 행동에 준하는 정도의 사회적인 의미가 인정되는 행위여야 할 것이다. 향후 개발될 인공지능은 인간의 자율신경계와 유사하게 외부상황 인식, 의사 결정의 시스템을 갖출 것이므로 인간의 행위와 동등하게 보아 법적 규율이 가능할 것이라는 견해들도 있다. 그 견해에 따르면, 인간과 동등한 행위를 하는 인공지능에 대해 기존의 법의 잣대로 법적 책임을 묻는 것은 당연한 결과다.

 

그러나 인공지능이 인간의 자율신경계와 유사한 형태의 의사결정-행동이라는 작용을 수행할 수 있다고 하더라도, 인간을 인간답게 만드는 이유 즉 도덕적 가치판단이라는 것을 전제로 한 자유의지를 인공지능에게 인정할 수 있느냐의 문제는 여전히 남는다. 전통적인 법철학에 의하면 인간을 범죄주체로 보고 처벌할 수 있는 것은 그가 금지된 상황을 인식하면서도 사회반가치적인 목표를 달성하기 위해 나아간 것에 대한 비난이 가능하기 때문이다.

 

만약 인공지능에게 자유의지가 인정되어 법적 책임의 주체가 될 수 있고, 인공지능의 구체적인 행위가 법상 유의미하여 규율의 대상이 된다고 하더라도 마지막 관문이 남는다. 인공지능에게 어떻게 책임을 묻는다는 말인가? 형사책임을 예로 들면, 형벌은 응보 효과와 예방적 효과를 목적으로 한다. 그런데 생명형·자유형·재산형 등의 형벌을 인공지능에 대해서는 그대로 적용할 수가 없다. 인공지능에게는 삶에 대한 의지가 없으므로 사형·자유형으로 형벌의 목적을 달성할 수 없기 때문이다. 인공지능을 담은 그릇인 컴퓨터나 무인자동차를 해체한다고 한들 그것이 사형·자유형과 같은 의미라고 볼 수 없다. 재산권이 없으므로 벌금형을 내릴 수도 없다. 민사상 책임을 묻는 경우에도 인공지능 자체에 위자료를 매기기는 곤란할 것이다


따라서 인공지능이 최종진화단계에 이른다고 하더라도 앞서 살펴본 문제들로 인해 인공지능을 온전한 인간과 동일한 선상에서 법적으로 취급하는 것은 불가능할 것이라고 생각한다. 인간만이 그 대상이 되던 종전의 법과는 완전히 다른, 새로운 법철학이 필요하게 될 것이다. 강한 인공지능이 어떤 모습일지 그 누구도 아직은 예상할 수 없으나 분명한 것은 인간과 완벽히 동일한 존재는 아닐 것이라는 것이다. 도덕적 가치판단과 자유의지로 기능하는 인간과 완전히 동일한 존재를 만드는 것이 인공지능 개발의 목적은 아니기 때문이다.

 

결국 인공지능에 대한 법적 책임의 문제는 기술의 발전에 따른 인공지능과 인간의 관계가 어떻게 형성되어 가는지에 따라 달라질 것이며, 이를 토대로 아주 세부적인 사항까지 규율해나가게 될 것이다. AI 의사의 오류 발생 시 그 오류를 수정하며 개입하는 것, 인간에게 이로운 방향을 설정하는 것은 모두 인간의 몫이다. 인간의 개입과 중개가 어느 정도로 이루어지는지에 따라 인공지능 의사에 대한 법적 책임의 정도도 달라질 것이다.