연구보고서
알고리즘 조정에 따른 사업자의 책임과 소비자 보호 방안에 관한 법제 연구
Legislative Study on Corporate Liability and Consumer Protection Measures on Algorithm Adjustment
Ⅰ. 배경 및 목적
▶ 디지털 플랫폼의 핵심 성장 동력인 알고리즘의 급성장
○ 온라인 플랫폼 상 공정한 관련 시장 활성화를 위한 방안으로 사업자의 책임 강화 및 소비자 보호를 위한 제도 마련이 시급
○ 인공지능 알고리즘은 사업자와 소비자에게 미치는 영향에 대하여 사례를 중심으로 그에 따른 책임 및 보호 방안에 관한 검토를 통하여 소비자 보호를 위한 제도 개선방안 검토
Ⅱ. 주요 내용
▶ 알고리즘 조정에 따른 유형 및 소비자 피해 사례
○ 인공지능 알고리즘 시장의 발전에 따른 정보 수집 및 입력, 활용에 따른 소비자에게 영향을 미치는 요소
○ 알고리즘 관련 소비생활에 있어서 거래영역은 대표적으로 광고 및 추천 등에서 발생하는 소비자문제로 소비자의 경제적 피해와 직접적 연관
- 비거래 영역에서의 대표적인 소비자피해는 차별에 관한 것이 개발자나 사업자의 의도에 의한 것일 수 있음
▶ 인공지능 알고리즘 조정에 따른 경제적・사회적 영향
○ 인공지능 확산에 따라 산업과 경제는 온라인 플랫폼 기반 시장으로 빠르게 재편되고 있으며, 기존 제품・서비스에 있어 온라인을 통하여 효과적인 구매나 제공을 받을 수 있게 됨에 따라 소비자 후생이 향상되었다는 평가
○ 하지만, 소수의 플랫폼이 지배하는 산업 구조와 이를 운영하는 알고리즘 등의 인공지능 시스템의 편향성과 경쟁 제한성 등으로 인하여 소비자 후생과 혁신이 저해되고 있다는 주장 또한 제기
- 인공지능의 활성화를 통한 알고리즘의 활용은 소비자 후생을 증대시킬 뿐만 아니라 경제적 영향에서도 긍정적인 효과를 창출
○ 긍정적 영향으로는 의료, 교통, 제조, 교육, 안전, 산업 등 다양한 분야에서 AI 적용을 통해 효율성 및 생산성이 향상되고, 국민의 삶의 질이 제고된다는 점이며, 부정적 영향으로는 데이터 편향, 인권 침해, 안전성 미흡, 기술 오・남용, 개인정보 유출, 딥페이크, 일자리 위기 등의 다양한 사회 문제 등
▶ 인공지능 알고리즘 조정에 따른 사업자의 법적 책임
○ 플랫폼 기업들의 알고리즘 조정 배경에는 구조적 요인으로 자사가 구축하여 운영한다는 점과 이에 따라 이중적인 지위를 가지게 된다는 점에서 이해충돌 발생 우려
○ 거대 플랫폼 기업들은 막대한 이용자 데이터와 거래 정보를 독점
- 플랫폼은 이러한 정보우위를 이용해 자신에게 유리한 규칙을 만들어도 외부에서는 파악하기 어려운 구조이며, 심지어 AI 기반 알고리즘은 개발자조차도 의사결정 과정을 완전히 설명하기 어려운 블랙박스 특성
○ 강력한 네트워크 효과로 인해 주요 플랫폼에는 대규모 이용자와 공급자가 몰려 있고, 경쟁 서비스로 이탈하기 어려운 록인(lock-in) 현상
- 수요와 공급 양측 이용자가 한 곳에 집중된 상황에서는 플랫폼이 알고리즘을 다소 자기편향적으로 바꾸더라도 이용자 이탈이 제한적이어서 시장 압력에 둔감
▶ 인공지능 알고리즘 조정에 따른 사업자책임의 한계점
○ 네이버, 쿠팡, 카카오 모빌리티의 알고리즘 조작 또는 조정에 의한 불공정거래행위는 소비자의 후생을 심각하게 저해하는 행위
- 플랫폼사업자들은 자사 플랫폼 내에서의 조작을 조정이라고 주장하고 있으나, 알고리즘 조작으로 자사상품이 우선순위에 노출된다면, 이는 경쟁제한적인 행위
- 더 나아가 알고리즘 담합과 같이 경쟁제한으로 서비스 품질이나 가격경쟁이 이루어지지 않는 상황을 초래할 수도 있다는 점에서 제도적 관점의 검토가 필요
○ 소비자 보호 및 공정한 시장경쟁 구축을 위해서는 사업자에 대한 책무 규정을 마련하거나 소비자 보호를 위한 제도적 검토가 수반
- 사전주의원칙에도 불구하고, AI 기본법 논의에서 ‘선허용 후규제’ 원칙에 따라 AI 안전성이 확보되지 않은 상태에서 시장에 출시토록 하는 것이 타당한 것인지 의문
▶ 플랫폼 사업자의 인공지능 알고리즘 책임을 강화하고 소비자를 보호하기 위해서는 기존 법제를 보완하는 입법 정책적 개입이 요구
○ 알고리즘 결과에 대한 책임 귀속을 명확히 하는 입법화 추진 필요
- 「인공지능 기본법」 등에서 이러한 책임원칙을 선언하고 있으나, 향후 법 개정과정에서 알고리즘이 야기한 피해에 대해 사업자가 민・형사상 책임을 지도록 명문화
- 플랫폼 이용약관 등에 “서비스 제공자는 위법한 알고리즘 운영으로 인한 결과에 책임을 진다”는 조항을 두어 분쟁 시 면책주장을 제한하는 방안 검토 필요
○ 사업자가 주요 알고리즘의 운용 기준과 변화 내용을 공개하거나 규제기관에 보고하도록 하는 의무 규정을 도입
- 국내에서도 앞서 언급한 플랫폼 공정화법안에 알고리즘 변경 시 15일 전 통지의무 규정 논의 등
○ 법・제도 개선은 집행력 확보가 관건인 만큼, 공적 규율을 담당할 기관의 권한과 역량을 보강
- 디지털 전문 규제기구를 설치하거나 기존 공정위 내 디지털 플랫폼 전담부서를 확대하여 알고리즘 감시에 집중하게 할 필요성 제기
○ 자율규제와 공적 규율의 조화
- 정부는 가이드라인이나 권고규정을 마련하여 기업들이 윤리적 AI와 알고리즘 책임 원칙을 수용하도록 유도
- 플랫폼들이 자발적으로 알고리즘 영향평가를 실시하고 결과를 공개하도록 권장하고, 또한 공정거래협약과 같은 자율협약 체계를 활용해 기업이 자체적으로 공정성 검증 시스템을 구축하고 정기적으로 감독기관에 보고하게 하는 방법 등
- 일정 규모 이상의 플랫폼에는 AI 윤리위원회 설치 의무나 법률 준수 책임자(CAO: Chief Algorithm Officer) 지정을 요구해 내부통제 강화
▶ 인공지능 알고리즘 조정에 따른 소비자 권익 보호방안
○ 알고리즘은 방대한 개인 데이터를 연료로 동작하며, 소비자의 쇼핑이력, 검색패턴, 위치정보 등 각종 데이터를 분석하여 의사결정에 활용
- 소비자의 개인정보를 보호하고 자기결정권을 보장하기 위한 법적・기술적 수단을 마련
- 개인정보 수집・이용에 대한 투명한 동의체계를 구축 및 데이터 최소 수집과 목적 제한 원칙을 철저히 적용
- 소비자가 자신의 개인정보 흐름을 통제하고 접속 관리할 수 있는 권한 확대 및 개인정보 감독과 제재를 강화하여 억제 효과 제고 등
○ 알고리즘 설계의 투명성 강화 및 설명의무 등 제도화
- 알고리즘 사용 여부 및 기본 원리의 공개를 의무화해야 하며, 플랫폼이나 사업자가 소비자와의 거래나 서비스 제공 과정에서 알고리즘을 활용하는 경우에는 소비자에게 AI 활용 여부를 명확히 고지하도록 제도화 필요
- 기업은 알고리즘의 의사결정 기준과 데이터 요소를 가능한 범위에서 이해하기 쉬운 언어로 전달하는 절차와 인력을 마련하고, 소비자의 요구가 있을 때에는 부당한 지연없이 설명을 제공하도록 법령으로 시한을 정하거나, 거부할 수 있는 사유를 엄격히 제한할 필요
○ 설명 가능한 AI(XAI) 기술의 개발과 도입을 장려하기 위하여 산・학・연의 협력을 통해 XAI 연구개발을 지원하고, 기업들이 자발적으로 자사 알고리즘에 설명 기능을 붙일 경우 인센티브 제공 등 검토 필요
○ 알고리즘 운영 실태의 공시 및 감사제도를 통하여 일정 규모 이상의 플랫폼이나 AI 사업자에 대해 알고리즘 투명성 보고서를 정기 공시하게 하여 알고리즘 변경 내역, 영향평가 결과, 소비자 불만 처리 현황 등을 공개하도록 함으로써 대외적 감시를 받게 하는 방안 등 검토
- 독립적인 알고리즘 감사(audit)를 도입하여 전문기관이 기업 알고리즘의 편향, 차별, 오류 여부를 검증하고 그 결과를 감독당국과 공유하거나 일부는 공표 등 제도화 방안 필요
▶ 소비자에 대한 알고리즘의 편향성 문제
○ AI 채용시스템이 과거 남성 위주의 인재 데이터로 학습된 경우 여성 지원자를 부당하게 탈락시키거나, 신용평가 알고리즘이 저소득층 데이터를 토대로 삼아 해당 계층에 낮은 한도를 책정하는 사례 등 발생
- 특정 소비자 집단에게 일괄적으로 높은 가격을 제시하는 개인화 가격차별, 일부 지역이나 계층을 마케팅 대상에서 제외하여 정보 접근 기회를 박탈하는 행위, 플랫폼이 선호하는 상품만을 부각시켜 소비자 선택의 왜곡을 초래하는 편향적 추천 등이 그 사례
○ 특정 소비자 집단에게 일괄적으로 높은 가격을 제시하는 개인화 가격차별, 일부 지역이나 계층을 마케팅 대상에서 제외하여 정보 접근 기회를 박탈하는 행위, 플랫폼이 선호하는 상품만을 부각시켜 소비자 선택의 왜곡을 초래하는 편향적 추천 등이 그 사례
- 다양하고 대표성 있는 데이터셋을 활용하고, 알고리즘 훈련 시 편향 제거 기술(de-biasing)을 적용하며, 모델이 내놓는 결과를 검증하는 과정
- 고위험 영역의 알고리즘에 대해서는 공정성 지표를 설계하여 예측이나 추천 결과가 인구집단 간에 과도한 차이를 보이지 않는지 검사하는 절차를 의무화할 필요
- EU AI Act도 고위험 AI에 대해 훈련데이터의 적절성을 검토하고 부작용을 시정할 의무를 부과하고 있으며, 우리 인공지능 기본법도 고영향 AI의 데이터 편향성 점검과 인간의 존엄 침해 금지 등을 규정하고 있으나, 국내에서도 이를 구체화하는 하위규정에서 기업들이 정기적으로 알고리즘 편향성 테스트를 실시하고 보고하도록 요구하는 방안 등 필요
- 공정거래위원회, 방송통신위원회, 개인정보보호위원회 등 관련 기관들은 협력하여 주요 플랫폼의 알고리즘 결과를 주기적으로 모니터링하고, 편향이나 차별 의심 정황이 포착되면 조사에 착수 방안 도입 검토
○ 알고리즘 안전성 확보를 위해서는 AI 시스템이 도입되는 제품이나 서비스에 대해 사전 안전성 평가와 인증제도를 도입할 필요
- 일정한 위험도를 지닌 AI 제품・서비스는 출시 전에 정부 공인 검사기관의 테스트를 통과하고 안전인증을 받도록 하는 방안 검토 필요
Ⅲ. 기대효과
▶ 입법정비 및 AI 활용 및 소비자 보호에 관한 정책 및 입법의 기초자료로 활용
○ 현재 법제는 이러한 알고리즘 조정 행위를 포섭할 수 있는 구조적 제약이 있다는 점을 국내・외 정책 및 제도, 실제 사례를 중심으로 분석하고, 이로부터 야기되는 문제점과 개선방안 도출
- 알고리즘 구조와 조정행위로부터 발생할 플랫폼 사업자의 책임과 소비자 보호에 관한 제도적 한계점에 관한 논의를 통해 우리나라에서의 AI 활용에 관한 입법 및 정책 방향 등 제시
▶ 학문적 실무적 연구의 기초자료로 활용
○ 알고리즘 조정의 책임을 법적으로 구조화하고, 그 책임 귀속의 기준을 명확히 설정하는 일은 단지 플랫폼을 규제하기 위한 것이 아니라 기술과 시장의 균형을 맞추고, 사용자와 사업자 간의 신뢰를 회복하며, 디지털 시대의 공정성과 정의를 회복하기 위한 최소한의 조건이라는 점에서 합리적인 규율 방안 모색
요 약 문 1
Abstract 7
제1장
서 론 / 19
제1절 연구의 필요성 및 목적 21
1. 연구의 필요성 21
2. 연구의 목적 27
제2절 연구의 방법 및 범위 29
1. 연구의 방법 29
2. 연구의 범위 30
제2장
인공지능 알고리즘 조정의 개념 및 한계점 / 33
제1절 인공지능 알고리즘 조정의 의의 35
1. 인공지능의 의의 35
2. 인공지능 알고리즘 조정 행위의 특징 및 효과 37
3. 인공지능 활용에 따른 플랫폼 사업자의 지위 43
제2절 인공지능 알고리즘 조정 사례 현황 및 한계점 45
1. 인공지능 알고리즘 조정에 따른 유형별 사례 45
2. 인공지능 알고리즘 기술 및 활용에 따른 소비자 편익 49
3. 알고리즘 조정에 따른 소비자 피해 사례 50
제3절 인공지능 알고리즘 조정에 따른 경제적・사회적 영향 54
1. 알고리즘 조정에 따른 경제적 영향 54
2. 알고리즘 조정에 따른 사회적 인식 조사 및 영향 59
3. 소결 73
제3장
인공지능 알고리즘 조정에 따른 사업자의 법적 책임 / 75
제1절 인공지능 알고리즘 조정에 따른 담합 사례 77
1. 알고리즘 조정에 따른 반경쟁적 행위 77
2. 알고리즘 조정에 따른 가격 조정 행위 81
3. 알고리즘 조정에 따른 국내․외 주요 사례 87
제2절 인공지능 알고리즘 조정에 따른 사업자 책임에 관한 국내・외 제도 92
1. EU의 디지털서비스법 92
2. 영국의 디지털시장・경쟁・소비자법 96
3. 독점규제 및 공정거래에 관한 법률 및 온라인 플랫폼 사업자의 시장지배적 지위 남용행위에 대한 심사지침 97
4. 국내 온라인 플랫폼 중개거래의 공정화에 관한 법률(안) 100
제3절 인공지능 알고리즘 조정에 따른 사업자책임의 한계점 101
1. 알고리즘 조정과 알고리즘 조작: 플랫폼 시장지배력, 소비자 후생, 그리고 책임의 문제 101
2. 현행 법제상의 한계점과 문제점 104
3. 사업자 책임 명확화를 위한 입법적 개선 방향 106
제4절 인공지능 알고리즘 조정에 따른 사업자 책임을 위한 법・제도 개선 방안 110
1. 알고리즘 투명성 의무 강화 110
2. 자사우대 행위에 대한 엄격한 규율 111
3. 알고리즘 평가와 감시제도 도입 111
4. 소비자 알권리 및 선택권 보장 112
제4장
인공지능 알고리즘 조정에 따른 소비자 보호방안 / 113
제1절 서 론 115
제2절 인공지능 알고리즘 조정에 관한 소비자 보호제도 현황 117
1. EU 소비자법 117
2. 소비자기본법 119
3. 전자상거래법 120
4. 알고리즘 환경에서의 소비자 보호 논의 121
제3절 인공지능 알고리즘 조정에 따른 소비자 권익 보호방안 125
1. 소비자의 개인정보의 보호 수단 마련 125
2. 알고리즘 설계의 투명성 강화 및 설명의무 등 제도화 126
3. 소비자에 대한 알고리즘의 편향성 128
4. 알고리즘 안전과 공정성 확보 129
제4절 인공지능 알고리즘 조정에 따른 소비자 보호를 위한 개선방안 133
1. 소비자 보호와 기술개발의 균형 133
2. 알고리즘 시대의 소비자 권리 134
3. 소비자 거버넌스와 권리장전의 수립 137
4. 입법론적 제안 139
제5장
결 론 / 143
참고문헌 149
본 공공저작물은 공공누리 “출처표시+상업적이용금지+변경금지” 조건에 따라 이용할 수 있습니다.
키워드
"인공지능"
" 알고리즘"
" 소비자 보호"
" 편향성"
" 투명성"
" 안전성"
저자
관련보고서 [ *이 연구보고서의 관련 저자는 "김은정" 입니다.]