인공지능법: 안전과 인권을 위한 쟁점 토론 거듭돼야
22대 국회 발의 인공지능법안, 시민사회 우려 제기
22대 국회 개원 이후 국민의힘, 더불어민주당 등 각 정당에서 인공지능법안을 발의하면서 논의가 활발해지고 있다. 하지만 시민사회단체들은 인공지능의 위험성을 제대로 반영하지 못하고 산업 진흥만을 우선시하는 내용에 우려를 표하고 있다. 특히 국민의힘 정점식 의원이 대표발의한 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 법률안’은 인공지능의 안전과 인권 보호에 대한 구체적인 조치가 부족하다는 지적을 받고 있다.
1일 건강권실현을위한보건의료단체연합와 광주인권지기 활짝, 무상의료운동본부, 문화연대 기술미디어문화위원회, 민주사회를위한변호사모임 디지털정보위원회 등 시민단체의 공동성명에 따르면 유럽연합(EU)의 인공지능 규제인 AI ACT는 인공지능의 위험성을 수준별로 구분하고 이에 따른 의무를 부과하며, 피해 구제를 위한 국가 거버넌스 체계를 구축했다.
미국 또한 바이든 대통령의 AI 행정명령을 통해 인공지능의 안전에 대한 의무 표준을 마련하고 있다. 이처럼 국제 사회는 인공지능의 위험성을 인지하고 이를 통제하기 위한 노력을 기울이고 있다.
인공지능법은 인공지능으로 인한 안전과 인권 침해 사고 발생 시 국가가 책임 있는 조사와 피해 구제를 할 수 있도록 해야 한다. 피해자의 진정 접수 및 조치, 고위험 및 공공기관 인공지능의 의사결정에 대한 설명받을 권리 보장 등이 필요하다.
인공지능법은 출입국 관리, 경찰 수사, 재판, 선거 등 주요 공공영역, 산업안전, 고용관계, 학교교육, 신용평가 등 인공지능이 사용되는 모든 분야를 고려하여 위험성을 평가하고 규제해야 한다. 특히 민감정보를 추론하는 생체인식 분류, 감정인식, 자연인 프로파일링 등은 인권에 중대한 영향을 미칠 수 있으므로 규제 대상에 포함되어야 한다.
고위험 인공지능 제공자는 위험 관리, 데이터 관리, 기술문서 작성, 정보 제공 투명성, 사람의 관리감독, 견고성, 정확성, 사이버보안 등을 보장하고 시장 출시 전에 적합성 평가 및 인증 절차를 거쳐야 한다. 또한 시장 출시 후에도 지속적인 모니터링과 문제 발생 시 신고 의무를 부과해야 한다. 고위험 영역 및 공공기관 활용자에 대해서는 인권영향평가를 의무화하고 그 결과를 공개해야 한다.
국민의힘 발의안은 인공지능의 위험성을 제대로 인지하지 못하고 안전과 인권 보호에 대한 구체적인 조치가 부족하다. 고위험 영역의 정의가 협소하고, 고위험 인공지능 제공자의 책임이 명확하게 규정되지 않았으며, 피해 구제 시스템도 마련되어 있지 않다.
인공지능법은 사회 전반에 걸쳐 영향을 미치는 중요한 법률입니다. 따라서 다양한 의견을 수렴하고 안전과 인권을 최우선으로 하는 내용으로 개선되어야 한다. 시민사회, 전문가, 정치권 등이 참여하는 꾸준한 논의와 개선 노력이 필요하다.