연구원소식 공지사항, 행사안내, 보도자료 등에 관련된 정보를 제공합니다.

카드뉴스

인공지능 오작동으로 인해 발생한 사고 책임은 누구에게 있을까?
인공지능 오작동으로 인해 발생한 사고 책임은 누구에게 있을까?
 
인공지능으로 삶은 더욱 편리해지겠으나 인간의 일자리 대체, 사생활 침해, 킬러로봇의 등장까지 두려움을 야기하고 있다.
 
그렇다면, 인공지능을 핵심 성장 동력으로 보고 글로벌 시장선점을 위해 규제를 완화해야 할까? 혹은 잠재적 위험성을 예측하고 이를 통제해야 할까?
 
한국법제연구원이 발간한 ‘인공지능(AI) 시대의 법적 쟁점에 관한 연구’에서 실효성 있는 법적 방안을 제시하고 있다.
- 인공지능 기술의 발전에 부합하는 법적 규제 마련
- 기술 확산으로 인해 발생할 수 있는 기본권 침해·법적 책임 귀속·알고리즘 규제 필요성
 
Q. 인공지능 시대에 가장 시급한 법적 쟁점은 무엇이라고 생각하십니까? 
- 1위 : 인공지능의 오작동에 의한 사고 등 발생시 책임귀속 (54.7%)
- 2위 : 데이터 활용 법제의 명확화 및 규제 완화 (52.8%)
- 3위 : 데이터 활용에 따른 개인정보보호 (41.5%)
- 기타 : 인공지능의 법인격 주체성 및 책임 주체성 (32.1%), 인공지능에 의한 의사결정상 투명성과 책임성 확보 (26.4%)
 
인공지능 시대의 윤리적 접근과 법제도적 접근 방식에 관한 질문에서 응답자 중 81.1%가 윤리적 접근과 법제도 측면 동시적 접근이 필요하다고 응답했다.
 
인공지능과 관련해 각국의 법정책적 대응 방식도 다양했다. 
사회경제의 대변혁을 가져올 수 있는 인공지능에 대해서 산업적 측면의 기술개발 활성화·촉진을 국가전략으로 삼아 적극적인 지원을 하는 동시에 
인공지능이 초래할 수 있는 위험에 대해서는 학계·산업계를 중심으로 진행되는 연구를 지원하고 윤리적 차원의 가이드라인을 수립·공표 하고 있다. 
 
장민선 연구위원은 인공지능 시대에 부합하는다양한 법제 개선방향을 제언했다.
- 인공지능 기술이 인간에게 이로운 방향으로 연구개발, 활용될 것을 보장하기 위해 법제를 마련함에 있어  관련 산업을 육성하는 동시에 인공지능에 대한 통제권을 확보하고,
  활용에 있어서 일정한 기준을 제시할 것
- 현재의 기술 수준을 고려할 때 법인격 부여 등의 논의보다 인공지능 기술개발의 윤리헌장 마련, 이용자 보호, 사고 발생시 책임소재 등의 법적 대응방안을 우선적으로 모색할 것
- 인공지능 시대를 맞이하여 기본법 등 별도의 입법체계를 마련하기 보다 기존의 법령 체계를 유지하면서 필요한 부분을 개정하는 방식을 채택할 것 
 
자세한 연구내용은 한국법제연구원 홈페이지에서 확인하실 수 있습니다.
한국법제연구원 > 발간물 > 연구보고서
2019-02-19