MIT 교수팀, 화학·생물학 무기 등 '재앙적 피해' 위험 모니터링
"이사회, 경영진 판단 보류 가능…AI 안전장치 강화 권한 부여"
샘 올트먼 최고경영자(CEO) 축출 사태 이후 혼란을 겪는 챗GPT 개발사 오픈AI가 자사의 인공지능(AI) 기술을 이용해 초래할 수 있는 위험을 막기 위해 내부 프로세스 강화에 나섰다.
오픈AI가 18일(현지시간) 공개한 방안에 따르면 AI 시스템을 지속적으로 평가하고 위험을 모니터링하는 '대비'(preparedness) 팀을 최근 조직했다.
이 팀은 매사추세츠 공대 AI 교수인 알렉산더 마드리가 이끌고 AI 연구원과 컴퓨터 과학자, 국가 보안 전문가 및 정책 전문가 등으로 구성될 예정이다. 해킹과 화학, 핵, 생물학적 위협 등 AI에 내재된 '재앙적' 위험 가능성을 모니터링하게 된다.
오픈AI에는 '대비' 팀 외에도 최신 대규모언어모델(LLM) GPT-4와 같은 현재 제품의 안전을 검토하는 '안전 시스템' 팀, 미래에 존재할 수 있는 강력하고 가상의 AI 시스템에 초점을 맞춘 '초연결' 팀이 있다.
AI 기술의 급격한 상업화를 차단하기 위한 방안도 마련했다. '대비' 팀의 보고서를 바탕으로 오픈AI 경영진은 새로운 AI 모델을 출시할지 여부를 결정하게 된다. 그러나 경영진이 안전하다고 판단해 출시를 결정한다고 해도 이사회가 이를 거부(veto)할 수 있다고 오픈AI는 설명했다.
댓글 많은 뉴스
이낙연 "민주당, 아무리 봐도 비정상…당대표 바꿔도 여러번 바꿨을 것"
'국민 2만명 모금 제작' 박정희 동상…경북도청 천년숲광장서 제막
박지원 "특검은 '최고 통치권자' 김건희 여사가 결심해야 결정"
일반의로 돌아오는 사직 전공의들…의료 정상화 신호 vs 기형적 구조 확대
TK신공항, 공영개발 사업비 조달 근거 마련…"지방채 한도액 초과 발행 가능"