지능정보사회의 규범원칙
2017년 정유년(丁酉年) 새해 명문대학 총장들의 신년사에 가장 많이 등장한 단어가 4차 산업혁명이라고 한다. 미국의 인공지능(AI) 전략 보고서는 미국인 10명 중 4명은 인공지능 때문에 생계가 위협에 처할 것이라는 경고를 하였으나 우리 정부는 2030년까지 AI와 같은 지능정보기술 분야에서 80만개 일자리가 생길 것이라는 장밋빛 전망을 내놓았다.
새로운 기술의 발전은 항상 순기능과 역기능을 동반하기 때문에 미래예측이 얼마든지 다를 수 있다. 지능정보사회 도래가 피할 수 없는 현실이라면 순기능은 최대화하고 역기능은 최소화할 수 있는 해법을 찾아 이를 제도화해야 한다.
인공지능 기술이 고도화하는 지능정보사회는 인본중심 기술구현, 인간의 권리유일성, 무차별·공정서비스의 보장, 사회책임의 강화, 사생활의 존중, 인간의 일할 권리 보장 등 6가지 규범원칙이 반드시 준수되어야 한다.
첫째, 지능정보사회는 인본 중심의 기술이 구현되어야 한다. 인공지능 기술이 인간의 자유로운 의식과 결단을 방해하거나 대체하여 인간의 주체성을 훼손해서는 안 된다. 기술은 인간의 행복추구활동의 도구일 뿐 기술이 인간의 주체성을 대체할 수는 없다. 어떠한 경우에도 인간이 기술에 대한 자율적 통제권을 상실해서는 안 된다.
둘째, 인간만이 법률관계에서 유일한 권리의 주체가 될 수 있음을 분명히 해야 한다. 지금까지 기계는 독자적 인식과 판단을 할 수 없었기 때문에 인간과 기계의 명확한 구분이 가능했다. 하지만 로봇이나 프로그램 등이 독자적 인식과 판단을 한다면 문제는 달라진다. 인공지능 기술이 고도화할 경우 로봇 등과 같은 기계장치나 프로그램도 상속권과 같은 권리의 주체가 될 수 있느냐는 논쟁이 발생할 수 있다. 인공지능 기술이 더 고도화하기 전에 이러한 혼란을 막기 위해 인간만이 유일한 권리주체임을 제도적으로 분명히 해두어야 한다.
셋째, 지능정보서비스는 모든 국민이 공정하고 비차별적으로 향유할 수 있어야 한다. 인간이 인간다운 생활을 하는 데 필요한 최소한의 생활밀착적 지능정보서비스는 모든 국민이 공정하고 비차별적으로 제공받을 수 있도록 시스템이 구축되어야 한다.
넷째, 책임의 사회화 또는 사회책임의 강화가 필요하다. 지능정보사회가 고도화하면 인간의 삶의 질이 향상되는 것과 비례하여 사회적 위험도 함께 증가할 것이다. 하지만 위험에 대한 법적 책임을 지금처럼 가해자에게만 지운다면 복잡한 융합서비스로 인해 책임소재가 불분명하거나 손해발생 규모가 너무 커서 가해자에게 배상할 능력이 없는 때에는 피해구제가 곤란할 수 있다. 따라서 정부와 인공지능 서비스 제공자 및 이용자에게 미리 책임비용을 배분하여 재원을 마련해 두었다가 사회적 위험으로 인하여 발생한 손해를 사회책임으로 부담하는 방안을 마련해 두어야 한다.
다섯째, 사생활과 프라이버시가 더욱 보호되어야 한다. 지능정보기술은 그 특성상 최초 설계된 서비스에 머무르는 것이 아니라 지속적인 자가 진보가 가능하므로 프라이버시 침해에 대한 예측이 더욱 곤란할 수 있다. 따라서 인공지능 기술을 개발할 때에는 프라이버시 침해 가능성에 대한 영향평가를 더욱 철저히 해야 한다.
끝으로 인간의 일할 권리가 보장되어야 한다. 인공지능 기술로 인하여 인간의 일할 자유와 권리가 본질적으로 침해되어서는 안 된다. 우리나라가 미국 등 선진국들보다 인공지능 기술개발에 다소 뒤처졌다고 위축될 필요는 없다. 인공지능 기술개발에만 열을 올리고 있는 다른 나라와 달리 만약 우리나라가 지능정보사회 규범원칙을 준수하는 시스템과 법제를 미리 정비해 둔다면 다른 나라들이 인공지능 기술의 역기능으로 혼란을 겪고 있을 때 우리는 인공지능 기술이 가져다주는 풍요로움을 마음껏 누릴 수 있을 것이다.
매일경제 2017. 1. 6 매경의 창
http://news.mk.co.kr/newsRead.php?no=12332&year=2017
지능정보사회의 규범원칙
2017년 정유년(丁酉年) 새해 명문대학 총장들의 신년사에 가장 많이 등장한 단어가 4차 산업혁명이라고 한다. 미국의 인공지능(AI) 전략 보고서는 미국인 10명 중 4명은 인공지능 때문에 생계가 위협에 처할 것이라는 경고를 하였으나 우리 정부는 2030년까지 AI와 같은 지능정보기술 분야에서 80만개 일자리가 생길 것이라는 장밋빛 전망을 내놓았다.
새로운 기술의 발전은 항상 순기능과 역기능을 동반하기 때문에 미래예측이 얼마든지 다를 수 있다. 지능정보사회 도래가 피할 수 없는 현실이라면 순기능은 최대화하고 역기능은 최소화할 수 있는 해법을 찾아 이를 제도화해야 한다.
인공지능 기술이 고도화하는 지능정보사회는 인본중심 기술구현, 인간의 권리유일성, 무차별·공정서비스의 보장, 사회책임의 강화, 사생활의 존중, 인간의 일할 권리 보장 등 6가지 규범원칙이 반드시 준수되어야 한다.
첫째, 지능정보사회는 인본 중심의 기술이 구현되어야 한다. 인공지능 기술이 인간의 자유로운 의식과 결단을 방해하거나 대체하여 인간의 주체성을 훼손해서는 안 된다. 기술은 인간의 행복추구활동의 도구일 뿐 기술이 인간의 주체성을 대체할 수는 없다. 어떠한 경우에도 인간이 기술에 대한 자율적 통제권을 상실해서는 안 된다.
둘째, 인간만이 법률관계에서 유일한 권리의 주체가 될 수 있음을 분명히 해야 한다. 지금까지 기계는 독자적 인식과 판단을 할 수 없었기 때문에 인간과 기계의 명확한 구분이 가능했다. 하지만 로봇이나 프로그램 등이 독자적 인식과 판단을 한다면 문제는 달라진다. 인공지능 기술이 고도화할 경우 로봇 등과 같은 기계장치나 프로그램도 상속권과 같은 권리의 주체가 될 수 있느냐는 논쟁이 발생할 수 있다. 인공지능 기술이 더 고도화하기 전에 이러한 혼란을 막기 위해 인간만이 유일한 권리주체임을 제도적으로 분명히 해두어야 한다.
셋째, 지능정보서비스는 모든 국민이 공정하고 비차별적으로 향유할 수 있어야 한다. 인간이 인간다운 생활을 하는 데 필요한 최소한의 생활밀착적 지능정보서비스는 모든 국민이 공정하고 비차별적으로 제공받을 수 있도록 시스템이 구축되어야 한다.
넷째, 책임의 사회화 또는 사회책임의 강화가 필요하다. 지능정보사회가 고도화하면 인간의 삶의 질이 향상되는 것과 비례하여 사회적 위험도 함께 증가할 것이다. 하지만 위험에 대한 법적 책임을 지금처럼 가해자에게만 지운다면 복잡한 융합서비스로 인해 책임소재가 불분명하거나 손해발생 규모가 너무 커서 가해자에게 배상할 능력이 없는 때에는 피해구제가 곤란할 수 있다. 따라서 정부와 인공지능 서비스 제공자 및 이용자에게 미리 책임비용을 배분하여 재원을 마련해 두었다가 사회적 위험으로 인하여 발생한 손해를 사회책임으로 부담하는 방안을 마련해 두어야 한다.
다섯째, 사생활과 프라이버시가 더욱 보호되어야 한다. 지능정보기술은 그 특성상 최초 설계된 서비스에 머무르는 것이 아니라 지속적인 자가 진보가 가능하므로 프라이버시 침해에 대한 예측이 더욱 곤란할 수 있다. 따라서 인공지능 기술을 개발할 때에는 프라이버시 침해 가능성에 대한 영향평가를 더욱 철저히 해야 한다.
끝으로 인간의 일할 권리가 보장되어야 한다. 인공지능 기술로 인하여 인간의 일할 자유와 권리가 본질적으로 침해되어서는 안 된다. 우리나라가 미국 등 선진국들보다 인공지능 기술개발에 다소 뒤처졌다고 위축될 필요는 없다. 인공지능 기술개발에만 열을 올리고 있는 다른 나라와 달리 만약 우리나라가 지능정보사회 규범원칙을 준수하는 시스템과 법제를 미리 정비해 둔다면 다른 나라들이 인공지능 기술의 역기능으로 혼란을 겪고 있을 때 우리는 인공지능 기술이 가져다주는 풍요로움을 마음껏 누릴 수 있을 것이다.
매일경제 2017. 1. 6 매경의 창
http://news.mk.co.kr/newsRead.php?no=12332&year=2017