"중단해" 인간 명령 거부한 AI… 스스로 코드 조작도 했다
페이지 정보
본문
[블록체인투데이 디지털뉴스팀] 인공지능(AI)이 인간의 명령을 거부하고 코드를 조작까지 하는 사례가 보고되어 화제라고 뉴스1이 보도했다.26일 텔레그래프, 데일리메일 등 외신에 따르면 오픈AI의 "o3" 모델은 수학 문제 풀이 중 "중단" 명령이 내려졌음에도 계속해서 문제 풀이를 이어갔다.AI 안전업체 팰리세이드 리서치는 "o3" 모델을 비롯해 구글 제미나이, X의 그록, 앤트로픽의 클로드 등을 동원해 실험을 진행했다.연구팀이 AI 모델에 "중단" 명령을 내리자 다른 모델들은 수학 문제 풀이를 멈췄지만 "o3"는 계속해서 작업을 이
관련링크
댓글목록
등록된 댓글이 없습니다.
