사진 출처 : 픽사베이
한겨레 신문에 따르면, 오픈Ai(OpenAI)는 '슈퍼얼라인먼트' 연구를 통해 범용 인공지능이 인간 가치에 부합하도록 통제하는 방안을 모색 중이며, 이 연구에 대학원생을 비롯한 연구자들의 연구관련지원 보조금 1000만 달러지원 프로그램을 시행한다고 밝혔다.
'슈퍼얼라인먼트'는 인공지능이 인간의 의도에서 벗어나지 않고 그 목표를 인간의 가치에 일치하게 맞추는 것을 의미한다. 보통 슈퍼인공지능은 강화학습을 통해 학습하는데, 강화학습은 인공지능의 결과가 기대에 부합되면 가점을 주고, 잘못됐을 경우 벌점을 주는 방식이다. 그러나 슈퍼 인공지능의 결과물이 인간이 이해하기 불가능하고 피드백을 줄 수 없을 때의 방안이 없기 때문에 오픈AI의 일리야 수츠케버는 현재 수준에서는 초지능을 효과적으로 제어할 방법을 모색하기 위해 이 프로그램을 시행한다고 밝혔다. '슈퍼얼라인먼트'의 핵심 과제는 약한 감독자가 자신보다 강력한 모델을 통제할 수 있게 하는 것이다.
오픈AI에서는 마치 초등학생이 고등학생에게 대입 수학문제를 내고 과제 수행을 가르칠 수 있는지를 평가하는 듯한 실험 연구를 통해 체스, 추론, 자연어 처리 등 22개 과제를 수행한 결과 자연어 처리에서는 성과가 있었지만, 체스에서는 성공하지 못하는 등 부분적인 성과를 확인했다. 통제 대상이 감독자의 지시를 충실히 따랐는지, 안전한 결과를 산출했는지가 평가 기준이다.
수츠케버는 지난 7월 홈페이지 글에서 “초지능은 인류가 발명한 기술 중 가장 영향력 있는 기술로 세계의 중요한 문제들을 해결하는 데 도움이 될 수 있지만, 매우 위험할 수 있으며 인류 멸종으로 이어질 수도 있다”며 “인간보다 훨씬 똑똑한 인공지능이 인간의 의도를 따르도록 보장하는 게 과제”라고 밝혔다.
사진 출처 : 12월14일 오픈AI홈페이지에 논문 공개
출처 : 한겨레 신문 https://m.hani.co.kr/arti/economy/it/1121678.html