MENU 검색
  1. HOME
  2. 뉴스정보
  3. 뉴스레터

뉴스레터

제  목 [형사] 인공지능의 형사책임
등록일 2018. 06. 29.


인공지능의 형사책임



이창민 변호사




이 글은 「서울대학교 기술과 법 센터」에서 발간하는 저널인 「Law&Technology」 제14권 2호(2018. 3.)에 게시되었던 저의 논문 “인공지능의 형사책임”을 뉴스레터의 성격에 맞게 축약, 정리한 것입니다. 자세한 내용이나 출처는 원문을 참고하여 주시기 바랍니다.

I. 서론

인공지능은 과거 인간의 편리를 위해 도입된 기계들과는 달리 인간의 인식과 사고과정을 모방하여 스스로 정보를 습득하고 학습하며 직접 행동을 선택하고 결정하여 실행에 옮깁니다. 인간이 인공지능에게 이러한 의사결정의 일부 또는 전부를 위임한다는 점에서, 이 인공지능이 내린 결정과 그 결과에 대하여 누가 책임을 져야 하는지, 인공지능의 설계 ‧ 제조자, 소유 ‧ 사용자 또는 인공지능 그 자체 중 누가 책임을 져야 하는지 라는 문제가 제기되는 것입니다. 본고에서는 인공지능의 발전 단계에 따라 인공지능이 야기한 범죄적 결과에 대하여 구체적으로 누가 책임을 져야 하는 것인지에 대하여 생각해 보고자 합니다.

II. 현단계에서 인공지능의 형사책임에 대한 검토

1. 인공지능의 형사책임 긍정설

인공지능은 인간은 아니지만 인간과 유사하거나 경우에 따라서는 인간보다 뛰어난 능력을 가지고 인간을 대신하여 많은 활동을 하므로, 인공지능의 형사책임을 인정하여야 한다는 주장이 제기되는데 미국의 Gabriel Hallevy, 독일의 Hilgendorf 등이 이러한 주장을 하고 있습니다.

2. 인공지능의 형사책임 부정설

하지만, 전통적인 형사법 이론하에서는 인공지능의 형사책임은 인정될 수 고 대부분의 학자들이 이와 같은 입장에서 앞의 긍정설의 논거들을 논박하고 있습니다. 인공지능이 하는 행위는 전통적 형법학에서의 행위를 구성하지 않는다거나 로봇에게는 자의식, 자율성 같은 인간에게 있는 요소들이 부재하다는 것을 근거로 합니다.

3. 인공지능과 관련된 형사문제의 해결

가. 현재 인공지능은 약한 인공지능 단계에 머물고 있고, 이러한 수준에서는 인공지능의 형사책임 부정설이 우세하고 또한 타당하다 할 것입니다. 그러면, 현재 수준의 논의로 돌아와서 인공지능이 범죄적 결과를 발생시켰을 경우 누구에게 형사책임을 지워야 하는지에 대해 살펴보겠습니다.

나. 우선은 그 배후에 있는 인간에게 혐의를 두는 것으로 시작하여야 합니다. 특히, 인공지능의 발전 초기단계에는 인공지능 배후에 있는 인간, 해당 인공지능의 소유 ‧ 사용자나 설계 ‧ 제조자에게 책임을 묻는 것으로 충분할 것입니다. 우리 형법상으로도 이와 같은 경우 그 배후자에게 결과적 가중범 또는 결과의 고의범 책임을 묻는데 지장이 없습니다.

주로 문제되는 것은 인공지능의 오작동이나 불측의 행위로 인해 범죄적 결과가 발생하였을 경우일 것입니다. 발생한 사고가 인간의 잘못된 행동 때문인지 기술의 실패 때문인지가 모호한 영역으로 앞으로 인공지능의 발전의 도상에 인간은 이러한 문제에 수도 없이 노출될 것입니다. 하지만, 이 경우도 현재의 형사법상 과실책임의 법리 또는 독일에서 인정된 형사상 제조물책임 법리에 따른 해결이 가능할 것입니다.

다. 하지만, 인공지능이 고도로 발달하여 어떤 문턱(threshold)을 넘어선 인공지능이 등장하고 제한적이나마 향상된 사회적 공감능력을 가지고 사회를 구성하는 중요한 행위자 중 하나로 인정받는 경우, 인간은 인공지능의 형사책임 인정여부에 대해 다시 생각해 보아야 할 필요가 있습니다. 특히, 기존의 제조물책임 법리에 따른 설계 ‧ 제조자의 책임 구성을 과거의 조건설적 인과관계에 따라 무분별하게 적용하면 배후자 인간의 책임범위는 무한하게 넓어진다는 위험이 있습니다. 이 경우 인공지능을 개발하고 설계 ‧ 제조하려는 배후자 인간의 책임이 너무 커져서 결국은 기술발전의 혁신 욕구를 꺾어 버릴 것이라는 점에서 이들의 책임에 대한 제한이 필요하고, 이러한 제한이 필요해지는 경계에서 인공지능에게 형사책임을 지울 필요성에 대한 문제가 다시 불거질 것입니다.

라. 앞서 살펴 본 바와 같이, 전통적인 형법이론상에서는 인공지능의 형사책임을 인정하는 것이 쉽지 않을 것입니다. 하지만, 우리는 이미 과거에 자연인이 아닌 법인에 대하여 민사적 법인격을 인정하고 책임을 인정한 경험이 있습니다. 현실적 필요는 이론의 외연을 확대하거나 새로운 이론을 구성함으로써 이론이 변화하는 현실에 대응할 수 있게 해 왔습니다. 인공지능이라는 새로운 문제에 있어서도 인공지능이 앞으로 훨씬 발전할 것임을 전제로 우리는 행위론을 비롯하여 인간중심으로 짜여진 전통적 이론으로부터 약간의 양보를 받아내어 전통적 범죄체계론의 틀 안에 인공지능의 행위를 끼워 맞춰 나갈 수도 있을 것입니다.

이를 위해서는 전통적 책임이론은 인공지능의 형사책임 인정과 관련해 해결해야 할 중요한 장애물입니다. 따라서, 강한 인공지능에 대해 형사책임의 가능성을 모색하여야 한다면 전통적 책임이론을 수정하고 보완하거나 해체하고 재구성하는 방안을 생각해 보아야 할 것입니다. 이를 위한 시도와 관련하여 본고가 주목한 것은 인간중심의 전통적 책임이론에 대한 21세기 뇌과학의 도전입니다.

III. 인간중심 책임주의에 대한 도전-뇌과학과 인공지능의 형사책임

1. 전통적 책임주의에 기초한 형사책임의 구성

전통적 책임개념은 타행위가능성에 기초한 비난가능성, 즉 불법적인 행위를 하지 않았을 수 있었음에도 불구하고 불법적인 행위를 저지른 것에 대한 비난을 핵심으로 합니다. 따라서, 형법적 비난과 처벌은 책임이 있는 자에 대해, 그 책임의 양에 비례하여서만 가해질 수 있다는 것입니다. 우리 헌법재판소도 “‘책임없는 자에게 형벌을 부과할 수 없다’는 형벌에 관한 책임주의는 형사법의 기본원리로서, 헌법상 법치국가의 원리에 내재하는 원리인 동시에, 국민 누구나 인간으로서의 존엄과 가치를 가지고 스스로의 책임에 따라 자신의 행동을 결정할 것을 보장하고 있는 헌법 제10조의 취지로부터 도출되는 원리이다”라고 하였습니다. 이는 독일연방헌법재판소의 입장과 같습니다. 이러한, 책임주의 원칙은 인간의 결정의 자유(Entscheidungfreiheit)를 논리적 전제로 하는데, 이에 대해 21세기 뇌과학의 심각한 도전이 일어납니다.

2. 뇌과학의 도전과 책임주의의 동요

가. 우리는 일반적으로 우리가 어떠한 행동을 하겠다고 결정하면 그 이후에 그러한 의지적 결정을 행동으로 옮긴다고 생각합니다. 하지만, 이러한 믿음, 즉 의식이 운동을 지배한다는 전통적인 믿음은 1983년 Benjamin Libet의 실험을 통해 균열이 가기 시작했습니다. Libet은 피험자에게 움직이는 시계바늘을 바라보다가 자신이 원하는 시점에 버튼을 눌러 시계바늘을 멈추게 하고 그 과정에 피험자가 운동하고자 하는 의도를 갖게 된 시점(운동의도자각시점), 운동자각시점, 실제 운동시점, 뇌파 측정 결과 준비전위(readiness potential)가 활성화되는 시점을 각 측정하여 그 선후를 확인했는데, 그 결과 자유롭게 행동을 시작하기 전에 이미 두뇌에서 특정한 전기신호변화가 관찰되고, 사람들은 이러한 특정 전기신호가 발생된 이후 스스로 행동하려는 의도를 인지하는 것으로 조사되었습니다. 즉, 자발적 행동은 무의식적으로 시작된다는 것입니다.

나. 이로써, 뇌연구자들은 인간이 일정한 행동을 하기로 결심하기 전에 이미 뇌에서 준비전위가 활성화되는 것이라면 움직이기로 결정한 장본인은 ‘뇌’이며 나의 자유로운 의사에 의해 움직였다고 생각하는 것은 뇌가 만든 망상이거나 사후적인 합리화에 불과하다고 주장하였습니다. 특히, Wolf Singer, Wolfgang Prinz, Gerhard Roth 같은 독일의 뇌연구자들은 우리가 행동하기로 결심한 다음 움직임을 시작한다는 것은 망상 내지 착각이라면서 인간의 부자유를 우리 법질서의 토대로 만들어 책임주의를 포기해야 한다고 주장하기까지 하였습니다.

다. 하지만, 과학적 이해는 절대적 진리가 아니라 현재의 기술수준에서 제시할 수 있는 최선의 결과에 바탕을 둔 것이기 때문에, 자연과학적 실험결과만으로 뇌과학이 자유의지를 비롯한 법규범적 이론틀 및 사법시스템 등에 제기하는 모든 의문을 해결할 수 있다고 해서는 안될 것입니다. 형법학은 규범학으로써 자연과학과 다른 차원에서 의사자유를 규명하고 책임론을 구성할 수 있습니다. 행동에 대한 법적 책임은 과학적 결과물이 아니라 법적인 결론인 것입니다. 이러한 점에서 그동안 의사자유가 존재하는지 여부에 대하여 불명확한 상태속에서도 형법은 오랫동안 책임개념과 함께 일정한 기능을 수행해 왔고, 앞으로도 이러한 ‘인간계에서의’ 책임개념과 책임주의 원칙은 당분간 건재할 것으로 예상됩니다.

라. 그러나, 이러한 전망은 몇천년간 사적보복 관습을 저항없이 수용하여 온 ‘인간’에 관한 것입니다. 21세기에 들어 전통의 형법이 효과적으로 방어할 수 없는 분야에 있어서는 종전의 인간중심적 형사사법에서 탈(脫)인간의 형사사법으로의 수정과 변화가 요구되는바, 전통적 책임론의 구조를 수정하고 보완하거나 아예 해체하고 재구성하여야 할 논리적 필연성과 현실적 필요성이 제기될 것입니다. 이때 전술한 바와 같은 뇌과학의 도전은 다음과 같은 시사점을 줄 수 있어 보입니다.

3. 뇌과학과 인공지능의 형사책임

가. 뇌과학에 기초한 책임이론(이하 논의의 편의상 ‘뇌과학 책임이론’이라고 합니다)을 인공지능의 형사책임에 도입해 보면, 우선 인공지능이 인간에 비견하는 자율성, 의사자유를 가지지 못하므로 인공지능에 대해서는 형사책임을 물을 수 없다거나 인공지능에게 형사책임을 묻기 위해서는 이러한 것이 갖추어져야 한다는 강박에서 벗어날 수 있을 것입니다. 뇌과학 책임이론은 인공지능 일반에게 의사자유를 전제한 타행위가능성이라는 전제조건을 요구하지 않기 때문입니다.

나. 뇌과학 책임이론은 인공지능에게 공통된 잣대를 들이대지 않습니다. 인공지능이 모두 일반적이고 공통적인 의사자유를 가지고 있을 것이라거나 그래야 한다는 허구적 가정을 하지 않고 인공지능이 모두 동등한 수준의 타행위가능성의 속박하에서 의사결정을 하고 행동한다고 억지를 부리지 않기 때문입니다. 즉, 각 인공지능의 수준에 맞게 각 인공지능의 특성과 환경을 고려할 수 있습니다. 가령, 전장(戰場)이나 방사능유출현장에서 일하는 인공지능과 집에서 노인을 돌보는 인공지능 사이, 수많은 인간의 생명과 신체를 책임져야 하는 고도의 교통관리시스템 인공지능과 가내에서 전등을 켜고 끄는 정도의 단순한 일을 하는 인공지능 사이에는 각각의 특수성과 수준에 맞게 서로 다른 기준을 적용하여 해당 인공지능의 책임을 평가할 것입니다.

다. 과거, 중세재판에서 단지 사회적 해악 또는 재난의 책임을 인간 외적인 대상에게 돌림으로써 사회적 평안을 얻기 위한 목적으로 무고한 동물이나 심지어 무생물에게까지 죄를 물었던 사례를 생각해 보면 인공지능에 대한 책임판단 과정에서도 이러한 반감이 작용할 것이라고 예상하는 것은 전혀 이상한 일이 아닙니다. 하지만, 뇌과학 책임이론에서는 선입견없이 모든 사정을 고려하여 행위자가 그러한 행위에 이르게 된 이유를 사후적, 경험과학적으로 분석하고, 분석이 완료될 때까지 성급한 낙인찍기를 자제합니다.

라. 인공지능에게 전통적 형사책임을 고수하여 형벌을 가하는 경우 형벌이 가지는 진지성과 존엄성이 무너진다는 주장이 있습니다. 하지만, 뇌과학 책임이론은 해당 인공지능을 비난하고 그로 인한 보복, 응보를 달성하기 위한 것이 아니라 치료, 개선을 목적으로 하는 것으로써 그 대상이 반드시 인간에 한정될 필요가 없기 때문에 이러한 형벌의 진지성과 존엄성에 대한 위협의 우려가 감소됩니다.

마. 인공지능은 대량으로 생산되어 보급되고 모듈 조합 방식으로 변화, 발전해 나갈 것이고 인공지능은 네트워크로 연결되어 거대한 확장성을 지닐 것이라는 점에서 인공지능 일부에서 발생한 형사책임 문제에 대한 규명과 이를 치료, 개선하기 위한 조치는 다른 인공지능에 영향을 미칠 것이고 이는 인공지능을 이용하는 전 사회의 복리증진에 기여할 것입니다. 이를 위해 각 인공지능은 블랙박스와 같이 개개의 의사결정과 관련된 이력정보를 보관하고 이를 집중된 네트워크에 보고하도록 하고 사회적으로 이를 검증, 관리하는 방안이 고려될 수 있을 것입니다.

바. 한편, 인공지능에 대한 책임비난으로써의 형벌은 전통형법에서와는 전혀 다른 수단을 통해 이루어져야 할 것입니다. 즉, 인공지능의 오류가능성에 대한 개선, 예방으로써 문제된 코드나 설계 또는 인공지능 자체의 사용을 중지하고 반가치적 의사결정의 원인이 된 부분의 교정, 개선을 명하되, 개선이 불가하거나 현저히 곤란할 경우 해당 코드, 설계, 인공지능의 삭제를 명하는 동시에 향후 동일, 동종, 유사의 코드, 설계, 인공지능의 사용을 금지하고 이 금지를 대세적으로 공표하여 금지의무를 강제하는 형식을 생각해 볼 수 있습니다.

그리고, 개선, 교정대상인 인공지능에 대해서는 형벌의 비례성 요구로부터 비교적 자유로운 형벌수단의 고안이 가능합니다. 오랜 시간과 비용을 들여서라도 인공지능으로부터 범죄적 오류를 일으킬 수 있는 요소를 규명하여 제거할 수 있다면 이는 그 인공지능 뿐 아니라 다른 인공지능 그리고 사회에도 긍정적이기 때문입니다.

또한, 인공지능의 형사책임에서 가장 쉽게 인정할 수 있는 것은 재산형입니다. 각 인공지능은 각자의 계좌를 가지면서 각자의 경제활동의 대가 중 일부를 보유할 수 있게 되어야 하며 그 한도내에서 민사배상은 물론 벌금도 납부할 수 있습니다. 그 범위내에서는 각 인공지능에게 권리주체성도 인정되어야 할 것입니다. 사실, 이는 자연인이 아닌 법인에게 재산형을 과하여 벌금을 징수하는 현대 형법에서는 새로운 발상도 아닙니다.

사. 한편, 뇌과학자들도 인정한 것처럼 새로이 정립된 책임개념하에서 책임의 귀속을 결정하기 위해서는 인공지능에 대한 사회적 책임성 교육이 선행되어야 합니다. 이때 교육되어야 하는 것은 인간의 법과 도덕이어야 할 것이고, 이는 인공지능의 윤리인 동시에 결국 인공지능 설계자의 공학윤리와 연결될 것입니다.

IV. 결론

약 인공지능은 인간의 도구일 뿐입니다. 이들에게 형사책임을 물어야 하지 않을까 고민할 필요는 없습니다. 인공지능을 설계하고 사용하는 사람들이 조심하여야 할 것입니다. 하지만, 강 인공지능이 등장하고 이 인공지능이 인간이 예측하지 못한 방식으로 진화, 발달한다면 형법학은 다소 긴장하여야 할지도 모릅니다. 어느 경계선 너머에서는 도저히 그 인공지능을 설계하고 사용하는 사람들에게 책임을 물을 수 없는 단계가 올 수 있기 때문입니다. 이때, 우리가 인공지능에게 형사책임을 물을 수 있는 형법이론을 구성한다면 가장 크게는 전통적 책임개념의 수정을 시도해야 할 것이고 이때 뇌과학의 전통적 책임개념에 대한 도전은 충분히 고려할만한 시사점을 줄 수 있습니다. 이로써, 책임개념을 인공지능에 맞게 수정하고 인공지능에 맞는 형벌제도를 고안한다면 인간사회와 인공지능을 서로를 상호 보호하는 형법을 재구성해 낼 수 있습니다. 이를 통해 인공지능은 중세의 마녀처럼 무작위로 공격받지도 않을 것이고 미래를 알지 못하는 세상 속에서 무방비상태로 방치되지도 않을 것이고, 인간의 행복과 복지를 위한 동반자로서 인간과 공존할 수 있을 것입니다.

원문 : 인공지능의 형사책임(Law&Technology 14권 2호, 2018. 3. 이창민 변호사).pdf