인공지능(AI) 안전 및 보안 규범 분석 및 시사점 [KISA Insight 2023 Vol.6]
STOCKZERO
0
111
0
0
2023.12.18 09:00
○ 생성형 AI 기술을 비롯한 인공지능 기술의 확산으로 잠재적 위협에 대한 우려가 증가하면서, 이러한 위협에 대응하기 위한 인공지능 보안 관련 규제 논의가 촉진 - ChatGPT 출시 이후 인공지능 기술이 핵심 기술로 부상하면서, 인공지능 기술의 확산으로 인해 인공지능이 보유한 기술적 한계나 부정적인 평가에 대한 우려도 함께 증가 - 해외 주요국들은 인공지능의 잠재적 위협에 대응하기 위해 주요국들은 인공지능 기술의 위험성에 대해 구체적으로 조사하고 국가 차원의 대응 방안을 마련하기 시작하였음○ G7 정상회의에서 생성형 AI의 위험에 대한 논의가 이루어지고, AI 안전 정상회의에서 최초의 국제적 합의로 볼 수 있는 ‘블레츨리 선언’ 발표 - ’23년 5월, 히로시마에서 개최된 G7 정상회의에서 생성형 AI의 위험에 대해 논의하였으며, 이를 기반으로 11월, ‘히로시마 AI 프로세스’ 관련 성명을 발표하고 11개 개발자 행동 규범을 발표 - ’23년 11월, AI 안전 정상회의에서는 28개 주요국이 참여하여 AI에 대한 위험을 논의하였고 참여국들은 AI의 기회와 위험에 대해 공감하고 협력의 필요성을 인정하는 ‘블레츨리 선언’에 합의○ 미 바이든 정부는 미국이 인공지능에 대한 약속을 지키고 위험을 관리하는데 앞장서기 위해, 안전하고 신뢰할 수 있는 인공지능 개발과 활용을 위한 대통령 행정명령 발표 - ’23년 10월, 미 정부는 인공지능의 위험을 관리하기 위한 포괄적인 전략의 일환으로, 안전하고 신뢰할 수 있는 인공지능의 개발과 활용을 위한 대통령 행정명령 발표 - 인공지능에 대한 약속을 지키고 위험을 관리하는데 앞장설 수 있도록 8개 분야에 대한 원칙과 함께 관련 행정부 및 기관들이 수행해야 하는 세부적인 조치사항을 제시