본문 바로가기

인공지능

구글, 모르면 "모른다"고 답하는 AI 개발(어스파이어, ASPIRE)

https://www.aitimes.com/news/articleView.html?idxno=156630

 

구글, 모르면 "모른다"고 답하는 AI 개발 - AI타임스

구글 연구진이 인공지능(AI)에 \"모른다(I don’t know)\"라고 말하게 가르치는 방법을 고안해 냈다. 이를 통해 대형언어모델(LLM)이 질문에 대한 답변을 제공할 때 확신의 정도를 표현, AI와의 상호 ...

www.aitimes.com

 

1. 생성형AI의 한계 - hallucination

- hallicunation(환각) : 인공지능(AI)이 주어진 데이터나 맥락에 근거하지 않은 잘못된 정보나 허위 정보를 생성하는 것을 의미한다.
--> 몰라도 아는 척 답변함(거짓정보)

 

2. 구글의 어스파이어 모델

기존 LLM+ 신뢰도 점수에 따라 답변을 취사선택하는 선택적 예측(selective prediction)

https://blog.research.google/2024/01/introducing-aspire-for-selective.html

 

Introducing ASPIRE for selective prediction in LLMs

Posted by Jiefeng Chen, Student Researcher, and Jinsung Yoon, Research Scientist, Cloud AI Team In the fast-evolving landscape of artificial intelligence, large language models (LLMs) have revolutionized the way we interact with machines, pushing the bound

blog.research.google

 

'인공지능' 카테고리의 다른 글

OWASP LLM TOP 10 리뷰  (0) 2024.08.26
할루시네이션(hallucination)  (0) 2023.05.11
Chat-GPT Plugin  (0) 2023.03.27
Bert vs GPT  (0) 2023.03.27
LLM(Large Language Model:거대 언어 모델)  (0) 2023.03.27