2022년 5월 17일 국가인권위원회(이하 인권위)는 「인공지능 개발과 활용에 관한 인권 가이드라인」을 발표했다. 청와대, 정부 부처, 공공기관, 기업 등은 이를 기반으로 인공지능이 가져올 기회는 극대화하지만, 인권 침해 소지는 최소화하는 법적, 행정적 조처 마련을 서둘러야 한다. 인권위 가이드라인의 골자는 △인간의 존엄성 및 개인의 자율성과 다양성 보장 △투명성과 설명 의무 △자기결정권의 보장 △차별금지 △AI 인권영향평가 시행 △위험도 등급 및 관련 법제도 마련 등이다. 이 가이드라인에 기초해서 인권위는 과학기술정보통신부장관, 개인정보보호위원회 위원장, 방송통신위원회 위원장, 공정거래위원회 위원장, 금융위원회 위원장에게 인공지능 관련 정책을 수립·이행하고 관계 법령을 제·개정해야 한다고 권고했다. 공공기관 및 민간기업도 가이드라인을 준수하도록 적극적으로 관리·감독할 것을 요구했다.

해당 부처와 기관들은 인권위의 요구를 진지하게 받아들이고 신속히  답을  제시해야 한다. 인권위의 조처는 세계적 추세를 따르는 것이다. 유럽연합은 이미 2020년 2월에 인공지능에 대한 백서를 발표했다. 그리고 2021년 4월에는 인공지능 규제안을 발표했다. 그것의 핵심은 인간 생명과 생활에 위협을 미칠 수 있는 인공지능을 포괄적으로 금지하는 것이다. 그리고  기본권을 해칠 수 있는 인공지능 기술은 출시 전 사전 평가 등의 의무 사항을 지켜야 한다는 것이다. 유럽 연합의 규제안은 인공지능 기술을 4단계로 구분하고, 각 단계별로 차별적 규제 내용을 제시했다.

이 규제안은 또한 인권을 침해할 수 있는 인공지능 기술들의 목록을 만들고 그것들을 금지했다. 가령 ‘시민 안전’을 명분으로 잠재의식을 이용하는 기술, 연령이나 신체적 또는 정신적 장애로 구분되는 특정 계층에게 피해를 줄 수 있는 기술, 사회적 점수 등 정부가 시민을 평가하는 기술 등을 금지했다. 우리 인권위의 가이드라인도 유럽 연합에 버금가는 포괄적 고려 사항들을 포함했다. 이제 중요한 것은 이런 가이드라인을 토대로 실현 가능한 규제방안들을 마련하는 일이다. 인공지능 기술을 산업적, 경제적 관점에서만 파악하면 감당하지 못할 사회적 대가를 치를 수 있다. 인공지능 윤리의 문제를 이용자 보호 차원에서만 보는 수동적 자세도 극복해야 한다. 관련 부처, 기관, 기업 등은 자율적 시민들이 인공지능 관련 거버넌스에 적극적으로 참여하는 민주적 환경 구성에도 힘을 함께 모아야 한다.  

저작권자 © 연세춘추 무단전재 및 재배포 금지