ZDNET Korea, “글로벌 AI 안전 논의 실효성 의문…선언적 수준 넘어서야”
ZDNET Korea, “글로벌 AI 안전 논의 실효성 의문…선언적 수준 넘어서야”
이은주 센터장 “AI 수용·평가·반응 이해 필요”…최민석 실장 “모델 평가 중요성↑”
[ZDNET Korea 김미정 기자] 인공지능(AI) 안전성에 대한 글로벌 논의가 단순히 선언적 수준에 머물지 않고 실질적 영향을 발휘할 수 있어야 한다는 지적이 나왔다.
이은주 서울대 언론정보학과 교수 겸 AI신뢰성센터장은 11일 코엑스 그랜드볼룸에서 열린 ‘AI 서울 2025’에서 이같이 주장했다. 글로벌 차원에서 AI 안전 논의가 이뤄지고 있지만 추상적이고 표면적인 결과만 도출된다는 이유에서다.
이 센터장은 “기후 위기나 코로나19 대응처럼 AI 안전도 글로벌 단위 노력이 필요하지만, 국가 간 이해관계가 얽혀 있어 실효성 있는 합의에 이르는 것이 쉽지 않다”고 지적했다. 그는 “최근 딥시크나 소버린AI 처럼 AI가 국가 안보, 정보 유출 문제와 직결됐다”며 “각국 이해관계가 충돌하는 상황에서 올바른 합의가 진행될지 우려스럽다”고 이유를 밝혔다.
그는 글로벌 논의를 통한 결과물이 실제 AI 개발 과정에 큰 영향을 미치지 않는다고 주장했다. 그는 “AI 안전 논의 결과는 누구도 반대하기 어렵고, 추상적이고, 당연한 원칙에 그치는 경우가 많다”며 “‘AI가 인간 중심이어야 한다’ 또는 ‘윤리적이어야 한다’ ‘평등해야 한다’는 선언적 수준에 머물러 있다”고 지적했다.
또 그는 ‘인간중심(Humancentric) AI’ 개념 확산을 우려했다. 그는 “여기서 말하는 ‘인간’에 대한 주체도 불분명하다”며 “마치 공식적인 대상이 있는 것처럼 간주해 명확성이 부족하다”이라고 주장했다.
그는 글로벌 기업과 각국 정부가 단순히 AI 안전·규범에 대한 논의를 넘어 ‘AI가 인간을 얼마나 더 안전하게 만들 수 있는가’라는 관점에 집중해야 한다고 강조했다. 단순히 인간을 AI 위협으로부터 보호하는 것이 아니라 AI가 사회적 위험을 예방·대응하는 역할을 수행할 수 있게 도와야 한다는 설명이다.
이 센터장은 이를 위해 기술과 법·제도적 논의뿐 아니라 인간의 AI 기술 수용, 평가, 반응 방식을 과학적으로 이해하는 것도 필요하다고 설명했다. 실제 AI 이용자 경험과 관점을 바탕으로 AI 안전성 방향을 설정해야 한다는 의미다.
후략.
출처 : ZDNET Korea
CTAI, [Jan.21,2025]에레혼#15 IP and the Diffusion of Culture Insights from the Swiss Watchmaking Industry
[CTAI] -주제 : Intellectual Property and the Diffusion of Culture: Insights from the Swiss Watchmaking Industry
-내용 : this presentation explored how IP laws promote the spread of cultural values, examines the IP strategies of the Swiss watchmaking industry, and discusses market-based solutions that could shape future legislation. It highlighted the role of IP in transforming consumer goods into symbols of national cultural identity
영어로 진행
일시 : 2025년 1월 21일 12시~14시
장소 : 서울대학교 17동 103호
발표자 : Gösken, Christophe (cgoesken@ethz.ch) / 소속 : ETH Zürich (Eidgenössische Technische Hochschule Zürich)
SBS NEWS, AI 안전연구소 개소…”AI 오용·통제력 상실 막는다”
안전하고 신뢰할 수 있는 인공지능(AI) 사용을 위한 연구 전담 조직 ‘AI 안전연구소’가 문을 열었습니다.
과학기술정보통신부는 경기 성남시 판교글로벌R&D센터에서 AI 안전연구소 개소식을 열었습니다.
AI 안전연구소는 AI의 기술적 한계, 인간의 AI 기술 오용, AI 통제력 상실 등으로 일어날 수 있는 위험에 체계적·전문적으로 대응하기 위해 설립된 AI 안전 연구 전담 조직입니다.
산학연 기관이 AI 안전 분야 연구 협력과 정보 교류를 하는 허브이자 현재 10개국이 참여 중인 ‘국제 AI 안전연구소 네트워크’ 일원입니다.
개소식에는 류광준 과기정통부 과기혁신본부장, 염재호 국가인공지능(AI)위원회 부위원장, 이경우 대통령실 AI·디지털 비서관, 오승필 KT 최고기술책임자(CTO), 오혜연 한국과학기술원 AI 연구원장, 이은주 서울대 AI 신뢰성 연구센터장, 방승찬 한국전자통신연구원(ETRI) 원장 등이 참석했습니다.
후략.
출처 : SBS NEWS
(https://n.news.naver.com/article/055/0001209835?sid=101)
ZDNET Korea, AI안전연구소 어떤 일 하나···구성원과 처우는
[ZDNET Korea 방은주 기자]
현재 12명서 30명으로 늘리고 연구 예산 80억…김명주 소장 “기업 돕는 세르파 될 것”
“히말라야 등정을 돕는 세르파(Sherpa)같은 연구소가 되겠습니다.”
김명주 AI안전연구소(AISI, AI에스아이로 발음) 소장은 27일 이 같이 밝혔다. 이날 판교에서 출범한 ‘AI안전연구소’는 AI기술 오용, AI 통제력 상실 등으로 발생할 수 있는 다양한 AI위험에 전문적으로 대응하기 위한 공공 성격의 AI안전연구 전담조직이다. 정부출연 연구원 중 한 곳인 한국전자통신연구원(ETRI) 부설로 신설됐다. 산‧학‧연이 AI안전분야 연구 협력과 정보 교류를 할 수 있는 대한민국 AI안전연구 허브이기도 하다. 선진 10개국이 참여해 최근 만든 ‘국제 AI안전연구소 네트워크’ 일원으로도 활동한다. 정부는 AISI를 통해 과학적 연구데이터에 근거한 AI안전 관련 정책을 개발, 선진화를 추진할 계획이다.
후략.
출처 : ZDNET Korea(https://n.news.naver.com/article/092/0002354255?sid=105)
CTAI, [Nov.27,2024]Future of AI Governance: Sovereignty and Interoperability
[CTAI]
AI 기술을 둘러싼 국가간 경쟁이 격화되고 있는 가운데 우리나라도 AI 주권을 확립해야 한다는 목소리가 높아지고 있습니다. AI 거버넌스의 관점에서 AI 주권을 확립한다는 것은 AI 기술이 자국의 사회문화적 가치에 정렬되도록 거버넌스 시스템을 구축하는 것을 의미한다고 말할 수 있습니다. 그런데 글로벌 경제에 동참하기 위해서는 역내 거버넌스 시스템이 역외 거버넌스 체제와 상호운용성을 유지하는 것 또한 포기할 수 없는 정책적 목표일 것입니다. 우리나라도 마찬가지로 이 두 목표를 조화롭게 달성할 수 있는 AI 거버넌스 시스템의 디자인과 전략 수립이 요구되고 있습니다.
서울대학교 인공지능 정책 이니셔티브(SAPI)는 한국인공지능법학회 및 서울대학교 인공지능연구센터와 공동으로 우리나라 AI 거버넌스의 미래를 좌우할 ‘AI 주권과 글로벌 정합성’을 심층적으로 논의하는 국제 심포지엄을 마련했습니다. 11.27(수)에 개최하는 이번 심포지엄은 또 한번의 브뤼셀 효과를 도모하고 있는 EU 외에 우리나라와 지정학적, 기술적, 경제적 측면에서 참고가 될 수 있는 이스라엘, 일본 및 싱가포르를 선별하여 해당 국가의 전문가로부터 그 나라의 AI 거버넌스 전략과 AI 주권 확보 방안에 대해 들어보는 자리가 될 것입니다.
이를 위해 특별히 유럽 집행위원회에서 EU AI법의 설계를 담당했던 Gabriele Mazzini 박사, ‘텔아비브 효과’를 주창하면서 이스라엘의 AI 거버넌스 전략을 도안하고 있는 Tehilla Shwartz Altshuler 박사, 싱가포르의 IMDA에서 AI 거버넌스 분과를 이끌고 있는 Larissa Lim 총괄, 일본 AI 경쟁 및 거버넌스 전문가로 활동하고 있는 교토대학교의 Masako Wakui 교수를 모셨습니다. 그리고 마지막 세션에서는 우리나라 AI안전연구소의 김명주 소장님께서 참여하시는 국내외 전문가들의 토론 패널이 준비되어 있습니다.
[Nov.12,2024]에레혼#14 Switzerland’s Approach to AI : A Vision for Trustworthy and Open LLMs
[CTAI]
[Aug.12-13]SEOUL AI POLICY CONFERENCE 2024
서울대학교 인공지능 정책 이니셔티브(SNU AI Policy Initiative, 이하 “SAPI”)가 주관하고, 서울대학교 법과경제연구센터 및 서울대학교 인공지능신뢰성연구센터(Center for Trustworthy AI, 이하 “CTAI”)가공동으로 주최하는 서울 Seoul AI Policy Conference 2024가 ‘AI 거버넌스의 프런티어 이슈(Frontier Issues in AI Governance)’라는 주제로 2024년 8월 12일과 13일 양일에 걸쳐 서울 페럼타워에서 진행될 예정이다.
IMDA, Singapore AI Safety Red Teaming Challenge-한국팀 전체 3위 수상
싱가포르 정부 기관인 Infocomm Media Development Authority(IMDA)에서 주최한 Singapore AI Safety Red Teaming Challenge에서 서울대학교, 카이스트, 네이버 소속 연구원으로 구성된 한국팀이 전체 3위 수상
이번 대회는 아시아 9개국(한국, 중국, 일본, 인도, 말레이시아, 싱가포르, 인도네시아, 태국, 베트남)이 참여하였으며, 참가자들은 4개의 대형 언어 모델(LLM)에 프롬프트를 입력해 편향이나 차별이 포함된 응답을 유도하는 과제 수행
MBC, 사회통합형 자율주행로봇 시제품 소개
[MBC 뉴스데스크 원주]
연세대학교 미래캠퍼스 융합연구센터가
AI 기술을 활용한 자율보행 보조로봇의
시제품 개발을 완료했습니다.
시제품을 활용하면 다리에 부착된
로봇이 생체신호를 감지해 움직이면서
중증장애인도 타인의 도움 없이
스스로 걸을 수 있습니다.
4개의 보조 바퀴가 달려있는 시제품으로는
계단과 오르막을 오르는 등
일상생활을 하는 데 제약이 있지만,
중증장애인의 재활치료에 도움을 줄 수 있고,
향후 개발될 최종 모델에서는
이런 한계들이 개선될 예정입니다.
경인일보, 코로나도 버티게 한 희망… 절망으로 만든 ‘경기 침체’ [빅데이터로 본 인천 소상공인 생태계·(中)]
[경인일보]
팬데믹 이후 찬바람 부는 ‘리단길’
코로나19를 버텼던 인천지역 ‘리단길’도 엔데믹 이후 찬바람이 불고 있다. 경기 침체 장기화로 매출은 계속 줄어들고 있는데 임대료는 매년 올라 점포를 내놓거나 계약 기간이 끝날 때까지 영업을 중단하는 사례가 많아지고 있다. 경기 침체 장기화가 인천 핵심 상권은 물론 차별화된 상품·공간으로 인기를 끌었던 리단길마저 얼어붙게 만든 것이다.
경인일보, 대표 상권 앓는 동안… 펜데믹과 맞서 싸운 리단길 [빅데이터로 본 인천 소상공인 생태계·(中)]
[경인일보]
코로나 충격 ‘희비 갈린 상권’
코로나19 유행 기간 부평·주안·구월로데오 등 인천 대표 상권들은 직격탄을 맞았지만, 반대로 매출이 늘어난 상권도 있다. 개성 있는 카페와 식당 등 소규모 점포가 밀집한 이른바 인천의 ‘리단길’은 코로나19 충격에서 비교적 타격을 덜 받은 것으로 나타났다.
인하대학교 소상공인경제생태계연구센터(소상공인센터)는 인천지역 소상공인 상가 정보 데이터와 삼성카드 결제액을 바탕으로 인천지역 궐리단길(구월도매시장 일대), 평리단길(부평문화의거리~부평시장 일대), 청리단길(부평구청역~굴포천역 일대) 2019~2023년 소비 데이터를 분석했다.