이은주 센터장 “AI 수용·평가·반응 이해 필요”…최민석 실장 “모델 평가 중요성↑”
[ZDNET Korea 김미정 기자] 인공지능(AI) 안전성에 대한 글로벌 논의가 단순히 선언적 수준에 머물지 않고 실질적 영향을 발휘할 수 있어야 한다는 지적이 나왔다.
이은주 서울대 언론정보학과 교수 겸 AI신뢰성센터장은 11일 코엑스 그랜드볼룸에서 열린 ‘AI 서울 2025’에서 이같이 주장했다. 글로벌 차원에서 AI 안전 논의가 이뤄지고 있지만 추상적이고 표면적인 결과만 도출된다는 이유에서다.
이 센터장은 “기후 위기나 코로나19 대응처럼 AI 안전도 글로벌 단위 노력이 필요하지만, 국가 간 이해관계가 얽혀 있어 실효성 있는 합의에 이르는 것이 쉽지 않다”고 지적했다. 그는 “최근 딥시크나 소버린AI 처럼 AI가 국가 안보, 정보 유출 문제와 직결됐다”며 “각국 이해관계가 충돌하는 상황에서 올바른 합의가 진행될지 우려스럽다”고 이유를 밝혔다.
그는 글로벌 논의를 통한 결과물이 실제 AI 개발 과정에 큰 영향을 미치지 않는다고 주장했다. 그는 “AI 안전 논의 결과는 누구도 반대하기 어렵고, 추상적이고, 당연한 원칙에 그치는 경우가 많다”며 “‘AI가 인간 중심이어야 한다’ 또는 ‘윤리적이어야 한다’ ‘평등해야 한다’는 선언적 수준에 머물러 있다”고 지적했다.
또 그는 ‘인간중심(Humancentric) AI’ 개념 확산을 우려했다. 그는 “여기서 말하는 ‘인간’에 대한 주체도 불분명하다”며 “마치 공식적인 대상이 있는 것처럼 간주해 명확성이 부족하다”이라고 주장했다.
그는 글로벌 기업과 각국 정부가 단순히 AI 안전·규범에 대한 논의를 넘어 ‘AI가 인간을 얼마나 더 안전하게 만들 수 있는가’라는 관점에 집중해야 한다고 강조했다. 단순히 인간을 AI 위협으로부터 보호하는 것이 아니라 AI가 사회적 위험을 예방·대응하는 역할을 수행할 수 있게 도와야 한다는 설명이다.
이 센터장은 이를 위해 기술과 법·제도적 논의뿐 아니라 인간의 AI 기술 수용, 평가, 반응 방식을 과학적으로 이해하는 것도 필요하다고 설명했다. 실제 AI 이용자 경험과 관점을 바탕으로 AI 안전성 방향을 설정해야 한다는 의미다.
후략.
출처 : ZDNET Korea