top of page

로봇시민법과 로봇세

2017.04.25. [테크 트렌드] 로봇, 내 일자리 빼앗은 대신 세금을 내라. 한경비즈니스

로봇과 인공지능이 인간의 일자리를 뺏을 것인가에 대한 논쟁이 한창이다. 보스턴컨설팅 그룹은 2025년까지 인공지능이 전세계 일자리의 25%를 대체한다고 말하고, 포레스트연구소는 2025년까지 미국에서만 2270만개의 일자리가 사라지며, 새롭게 1360만개의 일자리가 생겨서 결국 910만개의 일자리가 줄 것이라고 예측한다. 또한 2013년 옥스퍼드 대학의 보고서에서는 현재 미국 내 직업의 47%가 20년 내에 사라진다고 예측했으며, 4차 산업혁명이란 용어를 유행시킨 세계경제포럼은 2020년까지 전 세계에서 일자리 710만개가 사라지고, 200만개가 새로 생겨서 총 510만개의 일자리가 줄어들 것으로 예측하고 있다. 매년 선보이는 미래 직업 예측 보고서는 인공지능과 로봇이 인간의 일자리를 빼앗을 것이라는 부정적인 예측을 공통되게 하고 있으며, 이러한 예측은 우리를 우울하게 한다.

이런 이유에서일까? 마이크로소프트 창업자 빌 게이츠는 지난 2월 한 인터뷰를 통해서 인간을 대체하는 로봇을 사용할 경우 로봇 사용자에게 소득세 수준의 세금을 부과해야 한다고 주장했다. 빌 게이츠 외에도 미국의 상원의원인 버니 샌더스와 영국 노동당의 당수 제레미 코빈 등도 로봇세 도입을 주장하는데, 이들이 주장하는 로봇세의 근거는 로봇 자동화로 인해 급격하게 사라질 일자리를 유지하기 위해, 그리고 직장을 잃은 노동자들을 지원하기 위해 세금을 거둬 이들을 지원하는 프로그램을 만들어야 한다는 것이다.

로봇세의 정당성을 이해하기 위해서는 로봇의 존재 가치에 대한 논의가 선행되어야 한다. 그렇지 않으면, 이제까지 소위 3차 산업혁명 시대에 존재해왔던 공장 자동화의 경우 왜 세금을 부과하지 않았는가에 대한 논쟁부터 시작해야 하기 때문이다. 대량생산을 가능하게 만들었던 포디즘과 컴퓨터를 이용한 생산자동화를 통해 효율성을 극대화한 생산설비체계를 갖춘 시스템에 대해서는 세금을 부과하지 않고, 로봇에게만 세금을 부과한다는 주장을 한다면 이전과는 어떤 차별점이 있는가에 대한 논의가 필요하다.

2017년 1월과 2월은 로봇과 관련한 인류 역사에 의미있는 달로 기록될 것이다. 2017년 1월 12일, EU 법제사법위원회는 로봇에게 ‘전자 인간(electronic persons)’이라는 법적 지위를 부여하는 ‘로봇시민법’(European Civil Law Rules on Robotics)을 찬성 17표, 반대 2표 그리고 기권 2표로 제정 결의했다. 로봇시민법의 의미는 고도로 정교한 자동화 기능을 갖춘 로봇은 ‘전자 인간’으로서의 권리와 의무를 동시에 부여받는다는 것을 의미한다. 즉, 로봇이 자율권을 갖고있는 경우 의사 결정에 대한 책임을 로봇 자신이 져야한다는 것이다. 이제는 로봇에게 자율권이 내재되기만 한다면, 인간과 마찬가지로 권리는 물론 책임을 진다는 점에서 로봇과 인간과의 관계에 있어 신기원을 연 것이다.

‘로봇시민법’의 제정과 더불어 자발적인 윤리적 행동 강령도 함께 제안했는데, 로봇 공학의 사회적, 환경적 및 인체 건강에 미치는 영향에 대해 누가 책임질 것인지를 규제하고, 법적, 윤리적 기준에 따라 운영되는 것 등이 이에 포함된다. 예를 들어, 이 강령에서는 로봇 제작자가 비상 사태 시 로봇을 끌 수 있도록 ‘동작정지(kill)’ 스위치를 포함하는 것을 권고하는 식이다. 로봇을 만들 때 제작자가 지켜야 윤리강령은 로봇의 제작원칙이라는 주제로 오랫동안 논의되어 왔다. EU 법제사법위원회에서도 제안한 로봇의 윤리 행동 강력은 이미 1950년에 아시모프가 쓴 ‘아이, 로봇(I, Robot)’이란 책에 기인한 아시모프의 법칙을 그대로 가져온 결과이다.

이제까지 로봇의 제작 원칙으로 가장 보편적으로 받아들여진 아시모프의 법칙은 로봇에 관한 세개의 법칙을 말하고 있다. 이 법칙은 현재도 그 원칙이 그대로 통용될 정도로 명확한 로봇의 원칙을 밝히고 있다. 첫번째 원칙은 ‘로봇은 인간에게 해를 입혀서는 안 된다. 인간이 해를 입는 것을 모른 척해서도 안 된다’이다. 이는 로봇의 존재 원인이 인간을 위함이라는 대원칙을 천명한 것이다. 이러한 대원칙때문에 앞으로 로봇이 개발되는데 있어 인간을 위협하지 못할 것이라는 낙관적 관점을 갖게 되는 것이다. 그리고 두번째 원칙은 ‘1원칙에 위배되지 않는 한 로봇은 인간의 명령에 복종해야 한다’는 것이다. 인간에게 해를 미치지 않고, 인간이 위험한 상황에 빠지지 않는 상황에서 로봇은 무조건 인간의 명령에 복종해야 함을 의미한다. 비록 로봇이 자율적 존재로 만들어진다고 하더라도, 인간에 의해 종속되어 있음을 정의한 것이다. 마지막으로 세번째 원칙은 ‘1원칙과 2원칙에 위배되지 않는 한 로봇은 자신을 보호해야 한다’이다. 로봇은 자율권을 갖고 있는 ‘전자 인간’으로 존재하기에 자신의 생명과 안위를 보호해야 함을 밝히는 것이다.

유럽에서 로봇에 대한 논의가 의회에서 이루어지는 것과는 반대로, 미국에서는 인공지능을 연구하는 전문가들의 모임에서 인공지능이 가져올 위험을 피하고 인류 공영의 발전을 위한 노력을 전개하고 있다. 2017년 1월 6일 미국 캘리포니아의 아실로마에서 열린 인공지능 컨퍼런스에서 인공지능의 23개 원칙을 천명하며 ‘아실로마 인공지능 원칙(Asilomar AI Principles)’을 천명했는데, 이 원칙들은 인공지능이 미래에 모든 사람의 삶을 개선하는 데 사용될 수 있도록 인류에게 이로운 방향으로 인공지능을 발전시키기 위한 일종의 가이드라인이라고 볼 수 있다. 5개의 연구이슈와 13개의 윤리와 가치, 그리고 5개의 장기적 이슈 등 총 23개 원칙을 공표한 ‘아실로마 인공지능 원칙’은 알파고를 만들어 유명해진 하사비스를 비롯해서 약 1200명의 인공지능과 로봇 연구자들과 스티븐 호킹과 엘론 머스크 등 2300명이 넘는 전문가가 서명함으로써 그 영향력을 엿볼 수 있다.

23개의 내용을 살펴보면, 이 원칙이 무엇을 지향하는지 분명히 설명하고 있다. 먼저 연구목표를 살펴보면, 인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다고 명시함으로써 인간을 위한 인공지능임을 밝히고 있다. 또한 인공지능을 개발하는데 있어 인공지능 연구자와 정책 입안자 그리고 개발자 간의 건전한 교류와 협력, 신뢰, 안전 등의 관계를 설정함으로써 인공지능 발전을 위한 건설적인 연구문화를 지향하고 있다. 두번째로 윤리와 가치 부분을 살펴보면, 인공지능을 개발하는 과정에서 발생하는 인간 가치 침해나 개인 정보 보호, 자유에 대한 침해 등 책임 있는 행동과 가치를 준수하고자 하는 노력이 담겨 있다. 또한 인공지능이 일부의 이익을 가져오기 위한 기술이 아니라 인류 공동 번영을 위한 기술로써 인공지능에 의해 만들어진 경제적 번영은 널리 공유되어야 한다는 점을 명시하고 있다. 마지막으로, 장기적 이슈는 인공지능이 가져올 인류에 대한 위협을 방지하고 인류의 공동 선을 추구하기 위한 구체적 실천방안을 담고 있다. 가령, 인공지능은 한 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 하고, 엄격한 안전 및 통제 조치를 받아야 한다는 식이다.

이와 같은 원칙들은 궁극적으로 인공지능과 로봇이 가져오는 해악을 방지하기 위한 최소한의 원칙이며 테크놀로지의 발전에 따른 인간의 고뇌를 담은 매우 기본적인 원칙이다. 그러나 인공지능과 로봇의 능력은 인간의 상상력을 초월하기 때문에 이러한 원칙들이 지켜질 수 있도록 이를 사용하는 인간이 이성적이며 합리적인 통제감을 유지할 수 있을지 우려감이 크다. 예를 들어 2016년 7월 미국 텍사스주 댈러스 경찰이 로봇을 투입해 경찰 저격범을 사살한 사건은 커다란 윤리논쟁을 일으켰다. 당시 사용한 로봇은 자율성을 가진 로봇이 아니라 인간이 원격조정을 해서 특정 지점까지 보낸 후 폭탄을 터트리는 기능을 가진 것인데 비록 원격조정 방식을 취했다고 하더라도, 로봇을 이용해서 민간인을 죽였다는 것은 로봇의 사용에 관한 윤리적 논쟁을 불러 일으켰다. 미국은 비록 해외 전쟁터에서 오랫동안 로봇을 전투에 투입해서 사용하고 있지만, 미국 내에서 로봇을 살상용으로 사용한 것은 이번이 처음이기 때문에 그 파급력은 더 컸다. 또 다른 예로 DARPA 로보틱스 챌린지를 들 수 있다. 미국 국방부는 매년 약 40억원에 달하는 비용을 들여 국제 로봇 대회인 DARPA 로보틱스 챌린지를 개최한다. 육체적 기술, 민첩성, 지각력 그리고 인지능력을 시험하는 이 대회는 인간이 처리할 수 없는 과업을 로봇이 대신하게 한다는 명목으로 대회를 진행하고 있다. 그러나 국방부가 진행하는 이러한 대회가 정작 평화적인 목적으로만 사용될 것인가 하는 의문은 늘 제기되고 있다. 로봇은 인간을 위해서 존재한다는 명제가 어떤 인간, 특정 국가와 민족, 또는 특정 계급을 위할 수 있는 논리로 사용될 개연성은 늘 존재하기 때문이다.

다시 로봇세로 돌아가보자. 로봇에게 ‘전자 인간’이라는 법적 지위를 부여하는 ‘로봇시민법’이 통과된지 한달 후인 2017년 2월 17일, 유럽의회에서는 로봇세 도입에 대한 결의안 투표가 있었다. 로봇이 시민의 역할을 하게 됐으니, 시민이 갖는 주요한 의무인 세금 문제를 다루는 것은 당연한 논리적 귀결일 것이다. 로봇의 도입에 의한 노동시장의 변화를 예측하고 이에 따른 문제를 예방하기 위한 시도로써 로봇세 도입 결의안 투표는 인류 노동시장의 한 획을 근 것이다. 그러나 투표 결과는 반대 396표, 찬성 123표, 그리고 기권 85표로 로봇세 도입을 부결했다. 2017년 1월과 2월의 상황을 정리하면, 로봇에게 ‘전자 인간'이라는 권리와 책임을 부여했지만, 막상 로봇세 도입은 부결함으로써 로봇이 인간과 같은 책임은 갖지 못하는 것으로 결론내린 것이다.

로봇세 도입이 부결된 이유에는 이러한 세금제도가 혁신에 방해가 된다는 점이 가장 결정적이다. 인공지능과 로봇 개발로 인해 인류역사상 전대미문의 새로운 기회가 만들어질 수 있음에도 세금제도로 인한 발전의 방해물이 생기면 안된다는 논리인 것이다. 또한 완전경쟁시장에서 세금, 관세부과 등 정부의 개입으로 발생하는 사회적 손실이 생겨서 사회후생이 감소한다는 문제 제기와 로봇을 도입해 생산성이 증가되면 이후 일자리를 잃은 사람들에게 보상할 수 있음에도 불구하고 너무 성급한 정책적 판단이라는 비판에 더 무게가 실린 셈이다.

‘로봇시민법’이 담긴 보고서는 로봇과 인공 지능이 다양한 산업을 자동화함으로써 ‘사실상 무제한적인 번영’을 이끌어 낼 수도 있지만, 이는 고용에 중요한 영향을 미칠 것이라는 점을 지적하고 있다. 따라서 논리적인 판단과정을 겪는다면, 고용과 관련한 세금을 통해 장단기적인 문제점을 해결하는 것은 매우 중요하다. 로봇세 논쟁은 미래 사회에서 복잡하게 논의될 주요 이슈를 담고 있다. 급격하게 진행되는 인공지능 자동화가 발생시킬 실직사태를 어떻게 준비할 것인가는 사회 복지 차원의 문제가 아닌 생존의 문제로 인식해야 한다. 기본소득 보장이나 노동자 재훈련, 기술발전 속도의 완급을 조절이나 실직자를 지원하기 위한 재원 마련 등의 논의는 사회적 합의를 위한 첫번째 출발점이다. 국제로보틱스연맹의 2016년 보고서에 따르면 산업용 로봇의 진출이 가속화되어 한국에서 산업용 로봇의 지역별 매출 비중이 24%를 차지하고 있다고 밝혔다. 산업용 로봇의 확산이 가속화되고 있는 우리나라에서도 정부와 기업 그리고 시민이 참여하는 상생 방안의 마련이 필요하다.

정동훈 광운대학교 미디어영상학부 교수

태그:

Recent Posts
Archive
bottom of page