연구보고서
AI 영향평가를 위한 입법 연구
The Study on Legislative Approach for AI impact assessment
Ⅰ. 배경 및 목적
▶ 배경 및 목적
○ 연구 배경
- AI는 미래를 위한 다양한 기회를 창출할 가능성이 높으나 다양한 측면의 우려 또한 제기되고 있어 여러 나라들에서 AI의 영향에 대한 평가제도가 도입되고 있음
- 우리나라에서는 AI와 관련된 다수의 관련 입법이 국회에 상정되었으나 영향평가와 관련된 내용은 미약한 상황이나, 개별 영역에서 가이드라인 등으로 영향평가에 대한 내용을 규정한 사례가 있으며, 22대 국회에서 관련 개념을 도입하는 입법시도가 나타나고 있음
○ 연구 목적
- 본 연구는, 아직 제도로서 확립되지 않은 AI 영향평가의 의의, 도입 필요성 및 기준, 방법 등 내용 및 절차에 대해 국내외 관련 정책적·입법적 도입 사례를 분석하고자 함
- 위 분석을 통하여 AI 도입 시 관련 영향 및 위험을 명확히 하고 이를 최소화하기 위한 영향평가제도 및 입법정책방안을 제안하고자 함
Ⅱ. 연구 내용
▶ AI 영향평가의 의의
- AI 영향평가에 대한 논의는 비교적 최근의 것이며 이에 대한 공통의 명확한 정의는 없음. 다만 AI 영향평가는 투명성과 책임성, 권리보호 등 AI 윤리와 깊은 연관성을 발견할 수 있음.
- AI와 관련하여 거론되는 영향평가: 첫째, 윤리영향 평가(인종 차별, 사생활 침해 등 인권, 편향성, 공정성 등), 둘째, 사회적 영향평가(일자리, 교육, 의료, 교통 등), 셋째, 안전성 평가(자율 주행 자동차의 안전성, 의료 AI의 정확성 등 검증), 넷째, 데이터 보안 및 개인정보보호 평가(AI 시스템이 개인정보를 적절하게 처리하는지 등 데이터 보안 및 개인정보보호 측면에 대한 평가), 다섯째, 경제적 영향평가(새로운 산업 분야의 창출, 일자리 변화 등)
▶ 주요 관련 법제 분석
- 관련 현행 법규정으로, 「지능정보화기본법」, 「과학기술기본법」, 「소프트웨어진흥법」이 있고, 관련 정책 및 가이드라인으로, 「국가 인공지능 윤리기준」, 「신뢰할 수 있는 인공지능 실현전략」, 「인공지능 개발과 활용에 관한 인권 가이드라인」, 「인공지능(AI) 공공성 확보를 위한 현장 가이드라인」 등이 있음
- 22대 국회에서 제안된 법안 중 인공지능 신뢰성 확보를 위한 검ㆍ인증에 관한 내용을 두는 법률안(정점식 안, 권칠승 안)과 기본권 영향평가(이훈기 안)에 관한 규정을 두고 있는 안이 있으며 전자의 경우에도 적용 대상, 적용 방식(자율/의무) 등에 차이가 있음
▶ 주요 외국법 검토를 통한 쟁점 비교 분석
○ 관리대상 위험
- EU은 관리대상 위험을 ‘고위험’에 집중하고 고위험 AI 유형을 법으로 요건화 하는 반면, 미국은 관리대상 위험을 한정하지 않고 위험관리체계를 모든 AI에 적용하며 서비스나 제품, 모델 별로 해당 위험을 분석·확정하도록 하는 방식을 취함
○ 위험 vs. 위험과 편익
- EU은 위험관리체계 내의 평가의 관점을 중대한 피해를 초래하는 위험에 대해 고려하는 반면, 미국은 해당 AI 시스템으로 인한 위험과 편익을 동시에 고려하며, 공급자가 확인 및 예상되는 위험에도 불구하고, 해당 위험을 감수할 여지를 인정하고 그 대응방안과 책임조치에 대해 반영
○ 강행 규정 vs. 임의 규정
- EU은 고위험 AI에 대하여는 위험평가를 포함하는 위험관리체계를 마련할 것을 요건화하며, 특정 고위험 AI에 대하여는 기본권영향평가를 수행할 것을 요구하는 반면, 미국은 모든 개발자, 공급자, 배포자 등에 적용가능한 위험관리체계를 제시하지만 사업자나 기관이 자발적으로 도입할 수 있도록 함. 다만 연방정부가 도입하는 AI에 대하여는 위험평가체계를 적용하여 수행할 것이 의무화 함.
○ 법률 vs. 지침(연성규범)
- EU은 현재 「EU 인공지능법」를 통해 고위험 AI에 대하여는 위험평가 및 특정 고위험 AI에 대한 기본권영향평가가 의무화 될 예정이다. 이에 따라 고위험 AI에 관하여는 위험평가를 포함하는 위험관리체계를 마련할 것을 요건화하며, 특정 고위험 AI에 대하여는 배포자가 기본권영향평가를 수행할 것을 요구한다. 반면, 미국은 「국가 AI이니셔티브법」에 의해 정부(NIST)가 AI 위험관리 프레임워크를 마련할 것을 의무화함. 나아가 대통령 행정명령을 통해 AI 위험관리 프레임워크 적용을 위한 도구의 개발 및 범용 AI 등 특수 상황에 대한 지침의 제시할 것을 관련 정부기관에게 명함
○ 인증제도
- EU은 적용 대상 고위험 AI가 법에서 정하는 요건을 만족함에 대해 인증을 통해 안전성에 대한 확인을 제도화하는 반면, 미국은 위험관리체계 도입을 자율적 사항으로 열어두고 있으므로 이에 대한 인증제도를 제시하지는 않음.
○ 범용 AI
- EU은 범용 AI가 시스템적 위험을 가지는 경우에 고위험 AI에 준하는 요건을 적용하고 있는 반면, 미국은 범용 AI 또는 생성형 AI에 대하여 직접적으로 적용되는 법기준을 제시하기 보다는 대통령 행정명령에서 생성형 AI에 부합하는 위험관리체계에 대한 지침 및 도구를 마련할 것을 정부기관에 지시하고 있음.
○ 정부의 AI 활용
- EU는 정부가 활용하는 AI를 별도로 구별없이 고위험 AI의 일종으로 다루는 태도롤 취하는 반면, 미국은 연방정부의 기능을 위하여 AI를 개발·활용하도록 지원하고 정부 업무에 활용되는 AI에 대하여는 관련 정부가 위험관리체계에 대한 지침 뿐 아니라 위험관리체계를 마련하여 적용하도록 함
▶ AI 영향평가 입법 쟁점
○ AI 영향평가 유형
- 첫째, AI 인덱스를 기반으로 이를 확장한 영향평가(사회, 경제, 기술적 측면), 둘째, AI 서비스 안정성을 위한 영향평가, 셋째, AI 서비스 신뢰성을 확보하기 위한 영향평가(윤리, 이용자 권익 등)로 구분 시, 현재 미국과 EU의 영향평가는 세 유형을 모두 아우르고 있으며 AI 서비스 신뢰성을 확보하기 위한 영향평가에 보다 가까움
○ AI 영향평가 대상
- 공통적으로 그리고 우선적으로 위험평가가 규범적으로 요구될 수 있는 경우는 정부기관 또는 공공기관이 사용하는 AI이고, 또는 공공서비스를 제공하는 민간기관이 제공하는 AI, 그 다음은 고위험에 해당하는 AI임
○ AI 영향평가 지표
- 최근의 주요 AI 영향평가는 AI 신뢰성 확보를 위한 영향평가로서, 주로 예상되는 위험관리에 초점을 맞추는 경향 있음. 비용과 편익의 관점에서 평가(미국)와 정책지표 달성에 긍정적, 부정적 영향을 평가(UN)가 있음
○ AI 영향평가 주체
- AI 모든 행위자(설계자, 개발자, 배포자, 사용자, 고위 경영진 등)가 자발적으로 점검할 수 있는 체계(미국), 고위험 AI에 대한 배포자(EU 기본권 영향평가), 객관적 위치의 제3의 인증기관(적합성 평가)이 수행하는 경우가 있음
○ AI 영향평가 절차
- AI 시스템이 출시, 서비스 개시 전에 평가 절차를 거치고 출시후 모니터링하는 경우(EU)와 설계, 개발, 도입 또는 사용 전 과정에 걸쳐 수행하는 경우(미국)
▶ AI 영향평가 입법 방안
- 첫째, AI 영향평가와 AI 기술영향평가를 구분(AI 영향평가: 출시되는 AI 시스템에 대한 영향평가 (시스템 제공자가 수행), AI 기술영향평가: 특정 유형의 AI 기술에 대한 영향평가 (정부가 수행))
- 둘째, 정부·공공기관 AI는 우선적으로 법률에 의해 AI영향평가를 수행. 고위험 AI는 법률에 의해 AI영향평가를 수행. 다만, 이러한 의무가 부과되는 고위험 AI에 대하여는 AI 기술영향평가 결과를 수용하여 공공, 산업, 학계, 시민사회가 참여하는 위원회를 통해 정함.
- 셋째, 정부는 누구나 이용할 수 있는 AI영향평가체계를 가이드라인으로 제시. 생성형 AI 등의 AI의 기술 특성을 반영하여 별도로 추가적인 가이드라인 제시
- 넷째, AI 영향평가는 정책과 사업단위를 구별하여 수행주체, 평가항목을 차별화. 정책단위에서는 정책목표 수행, 권리 침해 여부를, 사업단위에서는 안전성, 위해 여부를 중심으로 평가.
- 다섯째, 법령상 다양한 영향평가를 통합하여 추진할 수 있는 기술적 방안을 모색. AI기반 AI 영향평가를 통해 법 준수의 평가와 다양한 영향평가 수행을 통합할 수 있는 기술적 수단을 개발 지원.
Ⅲ. 기대효과
▶ 학술적 효과
○ AI 영향평가 국내·외 사례분석을 통해 AI의 도입으로 인한 영향요인 및 평가방법에 대하여 유형을 체계화하고 관련 검토 및 입법 쟁점을 제시함
▶ 정책적 기여도
○ AI 영향평가 기준, 방법, 절차 등에 관한 정책적 및 가능한 입법방안에 대한 제언을 통해 향후 AI 도입 및 관련 법제도 도입시 기초자료로 활용가능할 것으로 예상
요 약 문 5
Abstract 13
제1장
서 론 / 27
제1절 연구 배경 및 목적 29
1. 연구 배경 29
2. 연구 목적 30
3. 예상 기여도 30
제2절 연구 범위 및 방법 31
1. 연구 범위 31
2. 연구 방법 31
제2장
AI 영향평가의 의의 / 33
제1절 AI 영향평가의 의의 35
제2절 외국 정책·법의 AI 영향평가 36
1. 윤리 영향평가 36
2. 인권·민주주의·법치에 대한 영향평가 36
3. 기본권 영향평가 36
4. 적합성평가 37
5. 위험관리체계 37
제3절 국내 정책·법의 관련 영향평가 38
1. 지능정보서비스 등의 사회적 영향평가 38
2. 기술영향평가 36
3. 소프트웨어사업 영향평가 39
4. 개인정보 영향평가 39
5. 인공지능 윤리영향평가 39
6. 적합성평가 40
제3장
관련 국내 법제 / 41
제1절 관련 현행 법규정 43
1. 「지능정보화기본법」 43
2. 「과학기술기본법」 47
3. 「소프트웨어 진흥법」 50
4. 「개인정보보호법」 52
5. 「적합성평가관리법」 58
제2절 관련 가이드라인 59
1. 「국가 인공지능 윤리기준」 59
2. 「신뢰할 수 있는 인공지능 실현전략」 61
3. 「인공지능 개발과 활용에 관한 인권 가이드라인」 63
4. 「인공지능(AI) 공공성 확보를 위한 현장 가이드라인」 66
제3절 관련 입법안 67
1. 제21대 국회 67
2. 제22대 국회 69
제4절 관련 쟁점 77
1. 영향평가 대상의 단위 77
2. AI 영향평가 신설 여부 77
3. 평가의 성격 및 평가 항목 78
4. 의무화 여부 및 대상 78
5. AI 신뢰성 검·인증제도와의 관계 79
제4장
관련 주요 외국 법제 / 81
제1절 국제 기준 83
1. UN UNESCO 「인공지능(AI) 윤리영향평가」(2023.8)) 83
2. ISO/IEC AI 시스템 영향평가 관련 국제표준 87
제2절 미국 90
1. 「국가 AI이니셔티브법」(2020) 90
2. 「알고리즘책임법안」 (2022) 93
3. NIST의 「AI 리스크관리체계」 (2023.1.26) 94
4. 「바이든 대통령 행정명령」 (2023.10.) 108
제3절 EU 126
1. 「EU 인공지능법」 (2024) 126
2. European Commission의 FRIA 표준 지침 148
제4절 영국 148
1. 「인권·민주주의·법치에 대한 영향평가(HUDERIA)」 148
2. 「공공부문을 위한 AI 사용 가이드라인」 155
제5절 캐나다 157
제6절 시사점 160
1. 관리대상 위험 160
2. 평가 관점: 위험 vs. 위험과 편익 160
3. 강행 규정 vs.임의 규정 160
4. 법률 vs. 지침(연성규범) 161
5. 인증제도 161
6. 범용 AI 161
7. 정부의 AI 활용 161
제5장
AI 영향평가 입법적 쟁점 및 입법 방안 / 163
제1절 입법적 쟁점 165
1. AI 영향평가 유형 165
2. AI 영향평가 대상 168
3. AI 영향평가 지표 170
4. AI 영향평가 주체 172
5. AI 영향평가 절차 174
제2절 AI 영향평가 입법 방안 175
1. 현행법상 영향평가 입법화 유형 175
2. 입법모델의 구성요소 178
3. 입법 방안 180
참고문헌 181
부록 191
∙ 부록1.UN UNESCO 「인공지능(AI) 윤리영향평가」(2023.8) 193
∙ 부록2. 미국 예산관리처(OMB) 연방기관의 인공지능 사용을 위한 거버넌스, 혁신 및 위험 관리 고도화 (2024.3) 261
본 공공저작물은 공공누리 “출처표시+상업적이용금지+변경금지” 조건에 따라 이용할 수 있습니다.
키워드
"AI 영향평가"
" 위험관리체계"
" 거버넌스"
" 신뢰"
" 안전"
" 권리"
" 고위험 AI"
" 공공 AI"
" 인증"
" 표준"
" 적합성"
저자
관련보고서 [ *이 연구보고서의 관련 저자는 "이유봉" 입니다.]