Bloomberg (2021.4. 21)
유럽 연합 집행위원회(European Commission)는 안면 인식 및 기타 고위험 인공 지능 애플리케이션이 유럽 연합이 제안한 새 규정을 준수하지 않을 경우 해당 기업에 막대한 벌금을 부과하겠다고 발표했다.
EC는 지난 수요일, 취약 계층을 악용하거나 잠재 의식 기술(subliminal techniques)을 적용해 사람들의 사회적 행동에 점수를 매기는 등의 특정 AI 애플리케이션의 EU 내 사용을 금하는 조치를 제안했다.
테러 공격을 예방하거나 실종 아동을 찾거나 기타 공공 보안 비상 상황에 대처하기 위해 사용하지 않는 한, 법 집행 기관에서 안면 인식 및 기타 실시간 원격 생체인식 시스템을 사용하는 것도 금지된다.
안면 인식은 특히 논란이 많은 AI 형태다. 시민 자유 단체들은 법 집행 기관이 이 기술을 사용할 때 발생할 수 있는 차별 또는 잘못된 신원 확인 등의 위험성을 경고해 왔다. 이 기술은 때때로 여성들이나 상대적으로 피부색이 어두운 사람들을 잘못 식별하기도 한다는 것이다. 디지털 권리 단체 EDRI는 공공 보안 목적의 예외적인 기술 사용의 허점에 대해서도 경고해 왔다.
자율 주행 자동차, 고용 또는 망명 신청자에 관한 결정처럼 사람들의 안전 또는 법적 지위를 위험에 빠뜨릴 수 있는 다른 고위험 애플리케이션들도 배포 전에 시스템 검사를 거쳐야 하며 다른 엄격한 의무 규제를 받게 된다.
이 조치는 일반 데이터 보호 규정(General Data Protection Regulation)과 매우 유사하게 EU 블록이 전 세계 기업이 따라야 할 글로벌 표준을 설정[선점]하기 위해 그들 자신이 가진 거대 선진 시장의 힘을 활용하려는 가장 최근의 시도다.
미국과 중국은 Google과 Microsoft Corp., 베이징 기반의 Baidu, 선전 기반의 Tencent 등과 같은 최대 규모 상업용 AI 회사들의 본거지지만, 이들이 유럽 소비자나 기업과 거래하려면 아마도 정밀 검사를 받게 될 것이다.
키 포인트:
- 금지 조치 또는 데이터 요구 조건을 준수하지 않는 회사에는 수익 6%의 벌금 부과.
- 새 규정에 명시된 다른 요구 조건을 준수하지 않는 회사에게도 소규모 벌금 부과가 예상.
- 법안은 고위험 AI 시스템의 개발자와 사용자 모두에게 적용.
- 위험한 AI 제공 업체는 배포 전에 적합성 평가를 받아야 함.
- 기타 의무로는 고품질 데이터 세트의 사용, 결과 추적 가능성에 대한 보장, 위험 최소화를 위해 인간이 감독할 것.
- '고위험' 애플리케이션의 기준: 의도된 목적, 잠재적으로 영향을 받는 사람 수, 피해의 비가역성 등.
- AI의 지원을 받는 비디오 게임이나 스팸 필터 같이 위험이 최소화 된 AI 애플리케이션은 새로운 규칙의 적용 대상이 아님.
- 각 국가의 시장 감시 당국은 새 규정을 시행할 것.
- EU는 유럽 전역에서 조화로운 규제 집행을 보장하는 유럽 규제 위원회(European board of regulators)를 설립한다.
- 이 규정은 유럽 의회와 블록 회원국의 승인을 통해 법으로 규정될 것이며, 이 과정에는 수 년이 소요될 수 있다.