Weekly deep daiv.
구독하기
Weekly deep daiv.
deep daiv.에서 AI 트렌드를 전달합니다.
인공지능 커뮤니티 deep daiv.에서 매주 수요일 AI 트렌드 소식을 알려드립니다! - 매주 새로운 AI 소식을 전해드려요. - 지난주 AI 이슈와 뉴스를 정리해드려요. - deep daiv. 이야기를 들려드려요.
구독하기
이미 구독자이신가요?
지난 뉴스레터
AI의 목격자 진술, 과연 믿을 수 있을까
이미지를 보고 설명하는 AI의 환각증상을 소개합니다.
2025. 6. 10.
포스터 만드는 AI 팀플, PosterAgent
멀티 에이전트 프레임워크 PosterAgent를 소개합니다.
2025. 6. 3.
빠른 추론을 위한 핵심 기술, Continuous Batching
LLM이 여러 응답을 동시에 효율적으로 처리하는 방법을 살펴봅니다.
2025. 5. 27.
머신러닝을 위한 수학 한스푼🥄
중심극한정리와 큰 수의 법칙, 그리고 특잇값 분해
2025. 5. 20.
잃어버린 정보를 찾아서
2025. 5. 13.
도시는 원래 '생성'되는 것이다
도시 생성 모델의 발전 과정을 알아봅시다.
2025. 5. 6.
Retrieval 전략 깊이 파고들기
No/Early/Late Interaction Retrieval 방식에 대해 알아봅니다.
2025. 4. 29.
디코딩 샘플링 전략(Top-p, Temperature)
확률적 디코딩과 Top-p 샘플링, Temperature을 알아봅니다.
2025. 4. 22.
보상 모델을 설계하는 새로운 패러다임
끝나지 않는 DeepSeek 열풍? DeepSeek GRM을 살펴봅니다.
2025. 4. 15.
경쟁을 통해 배우는 AI
강화학습 알고리즘의 실용적 진화
2025. 4. 8.
에이전트 시대, 왜 강화학습이 중요할까?
우리는 AI와 진정한 대화를 나눌 수 있을까요?
2025. 4. 1.
AI와 말동무를 맺을 수 있을까
우리는 AI와 진정한 대화를 나눌 수 있을까요?
2025. 3. 25.
Humanity's Last Exam
AI 성능 평가의 새로운 기준, HLE를 소개합니다.
2025. 3. 18.
🐍 MambaGlue: 새로운 이미지 매칭(Image Matching) 방법
얼굴 인식의 작동 원리와 MambaGlue에 대해 알아봅니다.
2025. 3. 11.
언어 모델에 확산 모델을 더하다.
확산 모델을 기반으로 하는 언어 모델, LLaDA를 소개합니다.
2025. 3. 4.
Sparse Attention이 재유행하는 이유
Sparse Attention의 개념과 DeepSeek의 NSA를 소개합니다.
2025. 2. 25.
MoE(Mixture of Expert)의 작동 원리
MoE(Mixture of Expert)에 대해 알아봅시다.
2025. 2. 18.
LRM과 Test Time Compute Scaling: 인공지능 연구의 새로운 패러다임
대형 추론 모델(Large Reasoning Model)에 대해서 알아봅니다.
2025. 2. 11.
당신이 알아야 할DeepSeek 이슈
DeepSeek를 둘러싼 이슈와 DeepSeek 모델의 원리를 알아봅니다.
2025. 2. 4.
메타-강화학습이란?
메타-강화학습의 등장 배경을 살펴봅니다.
2025. 1. 28.
더보기
Weekly deep daiv.
deep daiv.에서 AI 트렌드를 전달합니다.