News from all angles
챗GPT와 같은 거대언어모델(LLM)이 사실이 아닌 내용을 그럴듯하게 지어내는 이른바 ‘환각(Hallucination)’ 현상을 잡기 위한 ‘해석 가능성(Interpretability) 기술’이 가시적인 성과를 내고 있다. 각국의 규제 당국이 인공지능(AI)의 판단 과정에 대한 투명성을 요구하는 데다, AI가 직접 실행까지 수행하는 AI 에이전트가 확산되…
Redirecting to 조선일보 경제 in 3 seconds...
Share this story with your network