|
[이데일리 김가은 기자] 정부가 인공지능(AI) 윤리와 신뢰성 확보에 속도를 내고 있다. AI 윤리와 개인정보 보호 원칙 등을 담은 ‘AI법’ 제정을 지원하겠다고 밝힌 데 이어, 주요 AI서비스에 대한 안전성 점검에 나선다.
27일 개인정보보호위원회는 하반기 중 챗GPT를 포함한 AI서비스들을 대상으로 사전 실태점검에 나서겠다고 밝혔다. 지난 3월 챗GPT를 포함한 주요 국내외 AI서비스를 대상으로 개인정보 침해를 최소화하기 위한 조치 현황 등을 살피겠다는 의도다. 챗GPT 외에 점검 대상이 될 서비스 목록이나 평가 기준 등은 아직 마련되지 않았다. 다만 이번 처분이 국내가 아닌 글로벌 서비스에 가해진 점을 감안하면 마이크로소프트(MS)나 구글이 포함될 가능성도 있다.
남석 개인정보위 조사조정국장은 “아직까지 구체적으로 대상이 확정되지는 않았다”며 “주요 AI 서비스를 대상으로 할 것이고, 하반기 실태 점검 전까지 대상과 중점 점검 항목을 만들겠다”고 설명했다.
이에 개인정보위는 오픈AI에 과태료 360만원 처분을 내렸다. 전문가 검토를 거친 결과 오픈AI가 일반적으로 취해야할 보호조치를 소홀히 하진 않았다는 점을 감안해 안전조치 의무 위반이 아닌 신고 의무 위반을 적용한 결과다.
|
남 국장은 “오픈AI 측에서 국내 대리인을 지정해 소통 창구를 마련했다”며 “적극 협력하겠다는 의사를 표명해왔다”고 말했다. 이어 “필요하면 현장조사도 할 수 있을 것”이라고 덧붙였다.
이 법안에는 사생활과 개인정보 보호 사항 준수 등 AI가 지켜야 할 5대 기본원칙과 기본권 침해 금지, 공공선 침해 금지 등 AI서비스 개발·제공 사업자 책임을 강화하는 6개 윤리 기준 등이 담겨있다. AI에 대한 법적 테두리를 제시해 신뢰성을 높이기 위한 기반인 셈이다.
최동원 과기정통부 AI기반정책과장은 “국회에서 논의되고 있는 인공지능법은 고위험영역 AI에 대한 정의와 사업자들의 책무를 강화하는 내용으로, 그런 식의 고민을 하고 있다”며 “AI서비스나 제품의 위험요인을 분석, 공신력 있는 제3 기관을 통해 검·인증하는 체계를 준비 중에 있다”고 말했다.