인공지능(AI)의 급속한 발전은 프라이버시 침해, 체계적 편향, 운영 실패와 같은 복합적인 사회적 위험과 더불어 전례 없는 혁신을 촉발하였다. 이에 대응하여 영국, 미국, 일본을 포함한 여러 국가는 이러한 도전에 대처하고 더 응집력 있는 글로벌 AI 거버넌스에 기여하기 위해 AI 안전 연구소(AI Safety Institutes, AISI)를 설립하였다. 본 논문은 이들 연구소의 제도적 체계, 위험 관리 전략, 그리고 거버넌스 접근방식을 검토하고, 글로벌 AI 거버넌스에 대한 각 연구소의 고유한 기여에 대한 통찰을 제공한다. 연구 결과는 윤리적 AI 배치를 촉진하는 데 있어 다양한 제도적 체계와 위험 관리 전략, 그리고 공통의 우선순위를 보여준다. 또한 한국이 자국의 AISI를 설립하기 시작함에 따라, 국내적 우선순위를 함께 다루면서 글로벌 모범사례에 부합하도록 실행 가능한 권고안을 제안한다.
*본 초록은 AI를 통해 원문을 번역한 내용입니다. 정확한 내용은 하기 원문에서 확인해주세요.