최종편집:2024-04-25 18:34 (목)
"AI 개발활용시 인간의 존엄성과 기본권 보장돼야..." 인권위 가이드라인 권고

"AI 개발활용시 인간의 존엄성과 기본권 보장돼야..." 인권위 가이드라인 권고

  • 기자명 장지은 기자
  • 입력 2022.05.18 09:34
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다
국가인권위원회 CI

국가인권위원회(위원장 송두환, 이하 ‘인권위’)는 2022년 5월 11일 인공지능(AI: Artificial Intelligence) 개발과 활용 과정에서 발생할 수 있는 인권침해와 차별을 방지하기 위하여 <인공지능 개발과 활용에 관한 인권 가이드라인(이하 ‘가이드라인’)>을 마련했다고 17일 밝혔다.

인권위는 국무총리와 과학기술정보통신부장관, 개인정보보호위원회 위원장, 방송통신위원회 위원장, 공정거래위원회 위원장, 금융위원회 위원장 부처 장관에게 <가이드라인>에 기초하여 인공지능 관련 정책이 수립·이행되고, 관계 법령이 제․개정되도록 관련 부처들을 유기적으로 조정 하고 통할할 것을 권고했다. 또한 공공기관 및 민간기업이 <가이드라인>을 준수하도록 적극적으로 관리·감독할 것을 권고했다.

권고의 배경에는 인공지능 기술의 빠른 발전에 따라 인간의 삶과 인권에 미치는 영향이 점점 커짐에 있다. 인공지능의 발전과 확산으로 인해 개인 삶의 질이 높아질 것으로 기대되지만, 안면인식기술이나 인공지능에 의한 채용, 플랫폼 노동, ‘이루다’ 사태에서 보듯이 개인정보 및 사생활에 관한 권리 침해, 차별 등과 같은 인권 문제도 발생하고 있다. 그러나 인공지능으로 영향을 받는 당사자들은 인공지능의 도입, 운영, 결정에 대하여 의견 제시와 참여의 기회를 보장받고 있지 못하며, 인공지능에 의해 인권침해가 발생한 경우에도 효과적인 권리구제를 받을 수 있는 절차와 방법이 미흡한 상황이다.

따라서 인공지능을 개발할 때부터 개인의 삶과 사회적 공익에 기여할 수 있도록 개발하고, 인간의 존엄성과 자기결정권의 보장 및 차별받지 않을 권리 등 인권에 기반하여 활용하며, 인공지능 기술로 발생할 수 있는 인권침해의 예방 및 권리구제 절차를 마련하는 것이 중요하다.

이에 인권위는 인권적 관점에서 인공지능의 개발․활용 시 준수해야 할 기준을 마련할 필요가 있다고 보고 관련 내용을 검토하였다.

이미 국제사회는 인공지능 때문에 발생할 수 있는 문제를 예방하기 위한 제도와 지침을 개발하고 있다. 유엔은 인공지능 활용 시 인권보호 장치를 마련하도록 여러 차례 권고하였고, 유럽연합 역시 안면인식 인공지능 시스템 활용 금지, 인공지능 면접 시스템에 대한 고위험 등급 부과, 위험단계에 따른 규제수준 설정 등을 주요 내용으로 하는 「인공지능법」 초안을 공개하였다.

인권위는 이러한 국제적 흐름에 발맞춰 △인간의 존엄성 및 개인의 자율성과 다양성 보장, △투명성과 설명 의무, △자기결정권의 보장, △차별금지, △인공지능 인권영향평가 시행, △위험도 등급 및 관련 법․제도 마련 등을 주요 내용으로 한 <가이드라인>을 제시하였다. 주요 내용은 아래와 같다.

첫째, (인간의 존엄성 및 개인의 자율성과 다양성 보장) 인공지능은 인간으로서의 존엄과 가치 및 행복을 추구할 권리에 부합하는 방향으로 개발‧활용되어야 하며, 개인의 선택과 판단 및 결정을 강요하거나 자율성을 침해하여서는 안 된다.

둘째, (투명성과 설명 의무) 인공지능 기술을 활용한 판단 과정과 그 결과에 대하여 적절하고 합리적인 설명이 보장되어야 한다. 특히 인공지능이 개인의 생명이나 안전 등 기본적 인권에 중대한 영향을 미치는 경우에는 사용한 데이터와 알고리즘의 주요 요소를 일반에 공개하고 설명할 수 있어야 한다.

셋째, (자기결정권의 보장) 인공지능의 개발‧활용 시 개인정보는 목적달성에 필요한 최소한의 범위 내에서 처리하여야 하며, 그에 필요한 최소한의 기간 동안만 보관하여야 한다. 또한 이러한 개인정보 처리 방침은 정보 주체가 확인할 수 있도록 공개하여야 한다.

넷째, (차별금지) 인공지능의 결정이 특정 집단이나 일부 계층에 차별적이거나 부당한 영향을 초래하지 않고 개인의 안전이나 권리에 차별적 영향을 미치지 않도록 필요한 조치를 하여야 한다.

다섯째, (인공지능 인권영향평가 시행) 국가는 인공지능 개발 및 활용과 관련하여 인권침해나 차별이 발생할 가능성을 고려한 인권영향 평가제도를 마련하고, 평가 결과 부정적 영향이나 위험성이 드러난 경우 이를 방지할 수 있는 조치사항을 적용하며 그 내용을 공개하여야 한다.

여섯째, (위험도 등급 및 관련 법․제도 마련 등) 인공지능이 개인의 인권과 안전에 미치는 위험성을 단계별로 구분하고, 그에 걸맞은 수준의 규제와 인적 개입이 이루어지도록 법과 제도를 마련하여야 한다.

또한, 국가는 인공지능을 독립적이고 효과적으로 감독할 수 있는 체계를 수립하여 개인의 인권과 안전을 보장하고, 인공지능 때문에 피해를 입은 사람이 진정을 제기하는 등의 방법으로 권리구제를 받을 수 있는 기회를 제공하여야 한다.

인권위는 이번 <가이드라인>을 통해 인공지능 기술의 개발과 활용 전 과정에서 인권적 가치가 보호되는 계기가 마련되기를 기대한다.

이에 IAAE 국제인공지능&윤리협회 전창배 이사장은 "이번 인권위의 가이드라인은 정부가 인공지능의 목적이 인간을 위한 도구이자 수단이라는 점을 명확히 했다. 이제 타부처에서도 AI 정책과 제도를 만들때 인권의 관점에서 한번 더 고민하고 적용하는 계기가 마련됐다"라고 전했다.
저작권자 © THE AI 무단전재 및 재배포 금지
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전