Benchmark 39
- Vision Banana, 이미지 생성 모델이 범용 비전 학습자가 된다
- DeepSeek-V4 패밀리 공개, Flash와 Pro 그리고 1.6T 베이스 모델
- OpenAI GPT-5.5 공개 - 에이전틱 코딩, 지식 노동, 과학 연구의 새 기준
- DeepSeek-V4-Pro 공개 - 1.6T MoE, 49B 활성 파라미터, 1M 컨텍스트, FP4/FP8 혼합 정밀도
- Needle In A Haystack: 장문 컨텍스트 LLM의 검색 능력을 재는 벤치마크
- Claude Opus 4.7 개발자 리뷰: 마이그레이션 체크리스트와 Breaking Changes
- Kimi K2.6 공개: 1T MoE 오픈소스 모델의 에이전틱 코딩 도약
- AI 코드 리뷰, 정말 믿을 수 있을까? 자체 벤치마크로 검증한 기록
- Friends Don't Let Friends Use Ollama - llama.cpp 기반 대안 재검토
- Qwen3.6-35B-A3B: 350억 파라미터 MoE 모델, 30억만 활성화하는 에이전틱 코딩 오픈소스
- Claude Opus 4.7 출시: 셀프 검증, 3.3배 고해상도 비전, 코딩 13% 향상
- SuperGemma4 26B Uncensored MLX 4bit v2 - Apple Silicon용 고속 로컬 에이전트 모델
- Gemini Robotics-ER 1.6: 로봇을 위한 추론 우선 모델
- 단일 연산자 EML로 모든 초등 함수 표현하기
- MiniMax-M2.7 자기 진화하는 오픈 웨이트 모델과 공식 CLI
- 언어는 달라도 정보 전달 속도는 같다 초당 39비트의 보편성
- 저비트 양자화는 임베딩 모델을 '눈멀게' 만든다: jina-v5 코사인 상관 관측
- Gemma 4 로컬 모델로 Codex CLI 돌려보기 실전 테스트
- Microsoft VibeVoice: 장형식 음성 처리를 위한 오픈소스 ASR/TTS 패밀리
- NVIDIA·MIT TriAttention, KV 캐시 메모리를 10배 줄이다
- LG EXAONE 4.5 33B: 한국어 특화 첫 오픈 비전-언어 모델
- Anthropic Project Glasswing 출범, Claude Mythos Preview로 사이버보안 취약점 자동 탐지
- 감정적 프롬프트가 AI 성능을 바꿀까? EmotionRL 적응형 감정 프레이밍 연구
- Google Gemma 4: Gemini 3 기반 오픈 AI 모델, 멀티모달·에이전트·엣지 지원
- LLM 신경해부학: 가중치 변경 없이 중간 레이어 복제로 리더보드 1위 달성
- Deep Think with Confidence - LLM 추론의 신뢰도 평가 연구
- Qwen3.5 - 알리바바의 새로운 대규모 언어 모델 시리즈
- 프롬프트 반복으로 LLM 성능 향상 - Google 연구팀 논문
- Taalas - LLM 가중치를 실리콘에 새기다, 초당 17,000 토큰 ASIC 칩
- FINAL Bench - AI 메타인지를 측정하는 첫 번째 벤치마크
- METR의 AI 시간 지평 연구 - AI 자율성이 6개월마다 두 배씩 성장한다
- 에이전틱 코딩 벤치마크에서 인프라 노이즈 정량화 : Anthropic 엔지니어링 분석
- AI 창의성의 역설 - 평균은 넘었지만 천재는 못 따라간다
- DeepPlanning - 장기 계획 수립 에이전트를 위한 벤치마크
- Kimi K2.5 - Moonshot AI의 1조 파라미터 오픈 웨이트 멀티모달 모델
- GLM-4.7 - 코딩 전문 LLM의 새로운 강자
- DeepResearch Bench의 RACE와 FACT 평가 방법
- AGI 직전이라더니 내가 사용하는 AI는 왜 멍청할까?
- PostgreSQL - Benchmark