본문 바로가기
IT

인공지능 안전 가이드라인 발표

by 찌니와 용용 2023. 9. 7.
반응형


인공지능 개발을 위한 안전 지침서

2021년 7월 20일에 발표된 세계 윤리 데이터 재단에서는 안전하게 인공지능 제품을 개발하기 위한 새로운 자발적 가이드라인을 소개했습니다.

세계 윤리 데이터 재단은 메타, 구글, 삼성과 같은 주요 기술 기업에서 근무하는 직원들을 포함한 25,000명의 회원을 보유하고 있으며, 이들은 안전한 인공지능 제품 개발을 촉진하기 위해  가이드라인을 만들었습니다.

개발자들을 위한 84가지 체크리스트

이 가이드라인은 AI 프로젝트를 시작할 때 개발자들이 고려해야 할 84가지 질문으로 이루어진 체크리스트를 포함하고 있습니다.

또한 이 재단은 대중의 의견 수렴을 위해 누구나 자신의 질문을 제출할 수 있도록 대중을 초청하고 있으며, 이러한 의견들은 재단의 다음 연례 회의에서 모두 고려될 예정입니다.

개발자와 팀을 위한 다양한 질문들

가이드라인은 개발자, 팀, 그리고 제품 테스트에 참여하는 사람들을 위한 다양한 질문들로 구성되어 있으며, 이 질문들은 다음과 같은 주제를 다룹니다:

- AI 제품에 편견을 포함하지 않도록 어떻게 예방할 것인가?
- 도구로 생성된 결과가 법을 위반하는 상황을 어떻게 다룰 것인가?
- 모델이 훈련되는 데 사용되는 데이터에 저작권 보호 데이터가 포함되어 있을 경우 어떻게 대응할 것인가?

인공지능의 역할과 중요성

인공지능은 컴퓨터가 거의 인간처럼 행동하고 반응할 수 있도록 합니다. 이것은 컴퓨터에 대량의 정보를 공급하고 그 안에 있는 패턴을 학습하여 예측하고 문제를 해결하며 심지어 자신의 실수로부터 학습하는 것을 의미합니다.

재단의 역할과 목표

이 재단은 2018년에 출범한 비영리 글로벌 그룹으로, 기술과 학계에서 일하는 사람들을 하나로 모아 새로운 기술의 개발을 검토하는 것을 목표로 하고 있습니다.

안전한 인공지능 개발에 대한 고려사항

가이드라인은 편견 방지, 투명성, 그리고 책임감 있는 인공지능 개발과 관련된 다양한 고려사항을 다루고 있으며, 그 중 일부를 소개해드립니다:

- 데이터 보호 법률
- 사용자에게 인공지능과 상호 작용 중임을 명확하게 알리는 방법
- 제품 훈련에 사용되는 데이터를 입력하거나 태깅하는 인간 작업자들의 공정한 대우 여부

안전한 AI 개발 프레임워크

세계 윤리 데이터 재단의 가이드라인은 안전한 인공지능 개발을 가속화하기 위한 중요한 단계입니다. AI 분야에서 편견, 투명성, 그리고 책임에 관련된 핵심 문제를 다룹니다. AI 분야가 계속 발전함에 따라 이러한 지침과 프레임워크는 AI 기술이 사회에 이로운 영향을 미치면서 잠재적인 피해를 최소화하는 데 중요한 역할을 할것입니다.

반응형