AI 윤리문제1 에이전트화된 LLM, 인공지능 얼라인먼트(Alignment)의 미래를 바꾼다 안녕하세요, 오늘은 해외 블로그에서 발견한 흥미로운 글에 대해 소개하려고 합니다. 에이전트화된 LLM(언어 모델)들이 인공지능 정렬(alignment) 분야의 전망을 어떻게 바꿀지에 대한 주장입니다. 이 주제에 대해 궁금해하는 분들도 있을 것 같아 한글로 번역하여 소개하려 합니다. 그 전에 인공지능 정렬, 인공지능 얼라인먼트의 의미를 정의해보고 넘어갑시다. 쉽게 말하면, AI가 발전해서 AGI가 되었을 때, 인간을 해치려 하지 않는 안전한 AI를 만들기 위함입니다. AI 정렬은 AI 안전 카테고리의 하위항목에 속하죠. 위키백과의 정의에 따르면 AI의 목적함수가 인류의 가치와 일치하도록 하는, AI와 인간의 에 대한 연구가 AI alignment라고 이해할 수 있습니다. 이 글에서는 에이전트화된 LLM들이.. 2023. 4. 11. 이전 1 다음 반응형