Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- AI코딩
- 우주탐사
- AI반도체
- ai
- 고생물학
- ai에이전트
- 제임스웹우주망원경
- 미래기술
- 인공지능
- 생물다양성
- AI윤리
- 우주관측
- 전기차배터리
- 삼성전자
- AI보안
- 탄소중립
- ChatGPT
- NASA
- 지구온난화
- 천문학
- 구글AI
- 우주과학
- 챗GPT
- 마이크로소프트
- IT트렌드
- 생성형AI
- 오픈ai
- 제미나이
- 엔비디아
- 기후변화
Archives
- Today
- Total
목록GPT4 (1)
테크노트 – 미래를 읽는 기술 & 과학 이야기
최근 스탠포드 대학에서 발표한 연구 결과에 따르면, 세계적으로 많이 사용되는 AI 챗봇들이 사실과 허구를 정확히 구별하는 데 심각한 한계를 보이고 있다고 합니다. 이 연구는 약 13,000개의 질문을 통해 24개의 대형 언어 모델을 평가했으며, 특히 ChatGPT 같은 최신 AI 모델들이 '거짓된 믿음(false belief)'을 제대로 인지하지 못하는 현상이 두드러졌습니다. 이러한 문제는 말 그대로 AI의 '믿음'과 '지식'을 제대로 구분하지 못하는 데서 기인합니다. 우리가 매일 사용하는 ChatGPT, Claude, Gemini 같은 AI들이 정말로 '생각'을 하고 있을까요? 아니면 단순히 통계적 패턴을 따라 단어를 나열하는 건 아닐까요? 스탠포드의 이번 연구는 정확히 이 질문에 대한 답을 제시합니다..
IT, 기술 스토리
2025. 11. 6. 20:06
