Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | 31 |
Tags
- 생성형AI
- 지구온난화
- AI코딩
- AI보안
- 우주관측
- 구글AI
- 우주과학
- NASA
- 마이크로소프트
- 미래기술
- ChatGPT
- 기후위기
- 오픈ai
- AI윤리
- 제미나이
- IT트렌드
- ai에이전트
- 엔비디아
- AI반도체
- 우주탐사
- 기후변화
- 천문학
- 제임스웹우주망원경
- 고생물학
- 챗GPT
- 인공지능
- ai
- 삼성전자
- 전기차배터리
- 탄소중립
Archives
- Today
- Total
목록llm (1)
테크노트 – 미래를 읽는 기술 & 과학 이야기
최근 Anthropic과 영국 AI 보안 연구소, 앨런 튜링 연구소가 공동으로 발표한 연구 결과가 AI 업계에 큰 충격을 주고 있습니다. 이 연구는 대형 언어 모델(LLM)이 단 250개의 악성 문서만으로도 백도어 공격에 취약해질 수 있다는 사실을 밝혀냈습니다. 더욱 놀라운 것은 이러한 취약점이 모델의 크기나 훈련 데이터의 양과 무관하게 일정하다는 점입니다.기존 보안 상식을 뒤엎는 발견지금까지 AI 보안 전문가들은 공격자가 모델을 손상시키려면 전체 훈련 데이터의 일정 비율을 조작해야 한다고 믿어왔습니다. 하지만 이번 연구는 이런 상식을 완전히 뒤바꿨습니다. 연구진은 6억 개 매개변수 모델과 130억 개 매개변수 모델 모두 동일한 250개의 악성 문서로 백도어를 심을 수 있음을 증명했습니다. 더 큰 모델이..
IT, 기술 스토리
2025. 10. 16. 23:54
