참고자료

신뢰할 수 있는 인공지능을 위한 윤리 가이드라인

유럽연합 집행위원회, 2019년 여름 인공지능(AI) 활용과 관련된 시범사업 도입에 앞서 독립적 연구자들에 의해 마련된 “신뢰할 수 있는 인공지능을 위한 윤리 가이드라인(Ethics guidelines for trustworthy AI)” 발표

1. 인간 주체 및 감독 : 인공 지능 시스템은 인간 주체 및 기본권을 지지하고 인간의 자율성을 감소, 제한 또는 오도하지 않고 평등한 사회를 가능하게해야합니다.
2. 견고성 및 안전성 : 신뢰할 수 있는 인공 지능은 AI 시스템의 모든 라이프 사이클 단계에서 오류 또는 불일치를 처리 할 수있을 정도로 알고리즘이 안전하고 신뢰할 수 있으며 견고해야합니다.
3. 개인 정보 보호 및 데이터 거버넌스 : 시민은 자신의 데이터를 완전히 제어해야하며 관련 데이터는 해를 입히거나 차별하는 데 사용되지 않습니다.
4. 투명성 : AI 시스템의 추적성을 보장해야합니다.
5. 다양성, 차별 금지 및 공정성 : AI 시스템은 모든 범위의 인간 능력, 기술 및 요구 사항을 고려하고 접근성을 보장해야합니다.
6. 사회 및 환경 복지 : AI 시스템은 긍정적인 사회적 변화를 강화하고 지속 가능성 및 생태적 책임을 강화하는 데 사용해야합니다.
7. 책임 : AI 시스템과 그 결과에 대한 책임과 책임을 보장하기위한 메커니즘을 마련해야합니다.

Ethics guidelines for trustworthy AI
원문 보기 클릭

댓글 남기기

이메일은 공개되지 않습니다.

다음의 HTML 태그와 속성을 사용할 수 있습니다: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>