LLM 192
- Vision Banana, 이미지 생성 모델이 범용 비전 학습자가 된다
- 바이브 코딩의 환상 - AI가 만드는 실행되는 코드와 사람이 원하는 제품의 간극
- DeepSeek-V4 패밀리 공개, Flash와 Pro 그리고 1.6T 베이스 모델
- GLM-5 Scaling Pain: PD 분리 KV 캐시 race, HiCache 동기화 누락, LayerSplit가 풀어낸 코딩 에이전트 서빙의 진짜 병목
- Anthropic-AWS 10년 1000억 달러 컴퓨트 파트너십: Trainium 기반 5GW 확보
- vLLM Recipes 개편: 모델과 하드웨어 조합을 한 줄 명령어로
- Google Gemini Deep Research Agent - 장기 리서치 과제를 자동 수행하는 Interactions API
- OpenAI GPT-5.5 공개 - 에이전틱 코딩, 지식 노동, 과학 연구의 새 기준
- Anthropic Claude Code 품질 저하 사후분석 - 한 달 동안 겹친 세 가지 버그
- 스페이스X, 커서 600억 달러 인수 옵션 확보: xAI 합병 후 AI 코딩 시장 본격 진입
- Martin Fowler의 2026년 4월 단상 - 인지 부채, AI 시스템 3, 검증의 재발견
- DeepSeek-V4-Pro 공개 - 1.6T MoE, 49B 활성 파라미터, 1M 컨텍스트, FP4/FP8 혼합 정밀도
- Google DeepMind 엘리트 코딩 팀 구성: Anthropic과의 격차를 좁히는 2026년 전략
- Anthropic Pro 플랜에서 Claude Code 제거 논란: 2% 테스트인가, 정책 전환의 신호탄인가
- OpenClaw Anthropic Provider 복귀: Claude CLI 재사용과 API 키 설정 완벽 가이드
- OpenAI ChatGPT Images 2.0: 2K 정밀도와 비라틴 문자 렌더링 혁신
- Google LiteRT-LM: 엣지 디바이스용 고성능 온디바이스 LLM 추론 프레임워크
- Roo Code v3.36 업데이트: 비파괴 컨텍스트 관리, GPT-5.2, Gemini 3 Flash, Claude Sonnet 1M 지원
- Needle In A Haystack: 장문 컨텍스트 LLM의 검색 능력을 재는 벤치마크
- Claude Opus 4.7 개발자 리뷰: 마이그레이션 체크리스트와 Breaking Changes
- Claude Live Artifacts: Cowork에서 자동 갱신 대시보드 만들기
- Kimi K2.6 공개: 1T MoE 오픈소스 모델의 에이전틱 코딩 도약
- Claude와 Codex 토큰 효율 높이기: 설정 조정으로 누수를 막는 법
- 챗GPT에 아이디어를 바로 묻지 말라: 독일 연구팀이 밝힌 '설계 고착화' 현상과 HAICo 해법
- Anthropic의 Harness Design: 장시간 실행 에이전트를 위한 Generator-Evaluator 구조
- Friends Don't Let Friends Use Ollama - llama.cpp 기반 대안 재검토
- OpenAI Trusted Access for Cyber 확대와 GPT-5.4-Cyber 공개
- Anthropic Claude Design 공개 - Opus 4.7 비전 모델 기반 협업 디자인 도구
- Qwen3.6-35B-A3B: 350억 파라미터 MoE 모델, 30억만 활성화하는 에이전틱 코딩 오픈소스
- Claude Opus 4.7 출시: 셀프 검증, 3.3배 고해상도 비전, 코딩 13% 향상
- SuperGemma4 26B Uncensored MLX 4bit v2 - Apple Silicon용 고속 로컬 에이전트 모델
- MiniMax-M2.7 자기 진화하는 오픈 웨이트 모델과 공식 CLI
- Gemma 4 로컬 모델로 Codex CLI 돌려보기 실전 테스트
- Microsoft VibeVoice: 장형식 음성 처리를 위한 오픈소스 ASR/TTS 패밀리
- Microsoft Foundry Local: 제로 셋업으로 동작하는 통합 로컬 AI 엔진
- NVIDIA·MIT TriAttention, KV 캐시 메모리를 10배 줄이다
- LG EXAONE 4.5 33B: 한국어 특화 첫 오픈 비전-언어 모델
- Meta의 새 AI 모델 전략: 부분 오픈소스와 독점의 혼합
- Claude Advisor 전략: Opus와 Sonnet의 지능형 협업 모델
- Anthropic Managed Agents: 두뇌와 손을 분리하는 에이전트 아키텍처
- 감정적 프롬프트가 AI 성능을 바꿀까? EmotionRL 적응형 감정 프레이밍 연구
- Google AI Edge Gallery: 모바일에서 Gemma 4를 완전 오프라인으로 실행하는 앱
- RTK: AI 코딩 도구의 토큰 소비를 60~90% 줄이는 Rust CLI 프록시
- LM Studio CLI로 Google Gemma 4 로컬 실행: M4 Pro에서 51 tok/s 달성
- 코딩 에이전트의 6가지 핵심 구성 요소: 모델보다 하니스가 중요하다
- Claude Code 성능 저하 논란: Adaptive Thinking 도입 후 68% 불만 증가
- Google Gemma 4: Gemini 3 기반 오픈 AI 모델, 멀티모달·에이전트·엣지 지원
- Hermes Agent: Nous Research의 자기 학습형 자율 AI 에이전트 플랫폼
- Ollama, Apple Silicon에서 MLX 기반 구동 프리뷰 - 최대 2배 성능 향상
- Anthropic Claude Mythos, 데이터 유출로 존재가 드러난 차세대 AI 모델
- Anthropic 하네스 설계 - 장기 실행 앱 개발을 위한 멀티 에이전트 아키텍처
- LiteLLM PyPI 공급망 공격 - 악성 코드 삽입 보안 사건 분석
- Google TurboQuant - 극한 압축으로 AI 효율성을 재정의하는 양자화 알고리듬
- Andrej Karpathy가 말하는 코드 에이전트, AutoResearch, 그리고 AI의 루피 시대
- System 3: AI는 도구가 아닌 제3의 사고 시스템
- 하네스 엔지니어링 - AI 에이전트 성능을 좌우하는 시스템 설계의 모든 것
- AI 에이전트 실전 활용의 최전선 - 하네스 설계부터 자율 연구, 자기 진화 모델까지
- Cursor Composer 2 - 자체 코딩 AI 모델로 최첨단 성능과 저렴한 비용의 새로운 조합
- LLM을 컴퓨터로 만들기 - 트랜스포머 내부에서 프로그램을 실행하는 방법
- Trie 기반 빔 서치 - LLM 디코딩의 메모리와 속도를 동시에 잡다
- OpenJarvis - 스탠포드가 만든 로컬 디바이스 개인용 AI 스택
- llmfit - 내 하드웨어에 맞는 LLM 모델을 찾아주는 터미널 도구
- LLM Architecture Gallery - 43개 LLM 아키텍처를 한눈에 비교하는 갤러리
- LLM으로 소프트웨어를 만드는 방법 - 아키텍트-개발자-리뷰어 다중 에이전트 워크플로우
- Attention Residuals: 기존 잔차 연결을 대체하는 새로운 Transformer 아키텍처
- LLM 신경해부학: 가중치 변경 없이 중간 레이어 복제로 리더보드 1위 달성
- AgentHub: AI 에이전트를 위한 경량 협업 플랫폼과 Autoresearch GPT-2 튜닝 성과
- Claude Opus 4.6 & Sonnet 4.6 - 1M 컨텍스트 윈도우 정식 출시
- CanIRun.ai - 내 컴퓨터에서 실행 가능한 AI 모델을 확인하는 도구
- Claude 인터랙티브 시각화 - 대화 속 실시간 차트와 다이어그램
- 프롬프트의 정중함이 LLM 정확도에 미치는 영향 - Mind Your Tone 논문 분석
- Deep Think with Confidence - LLM 추론의 신뢰도 평가 연구
- Google Gemini Embedding 2 - 최초의 네이티브 멀티모달 임베딩 모델
- GPT-5.4의 1M 컨텍스트 윈도우, 기본 설정으로는 258K만 사용 가능
- Karpathy의 AutoResearch - AI 에이전트가 밤새 자율적으로 LLM 연구를 수행하는 프레임워크
- OpenAI GPT-5.4 공개 - 1M 컨텍스트와 네이티브 컴퓨터 사용
- LLM의 L은 거짓말을 의미한다 - AI 코드 생성의 위조 논란
- AI 코드 재작성을 통한 라이선스 세탁 논란 - chardet 사례
- Redis 코딩 패턴 - antirez의 새로운 공식 문서 사이트
- Anthropic Academy - 무료 AI 교육 플랫폼 출시
- Qwen3.5 - 알리바바의 새로운 대규모 언어 모델 시리즈
- AI 에이전트 메모리 실험: 요약된 지식이 오히려 성능을 떨어뜨린다
- Anthropic 페르소나 선택 모델(PSM) - Claude는 캐릭터다, AI의 인간적 행동 원리
- Sam Altman - AI가 AI 연구를 가속한다, 예상보다 빠른 초지능 도래와 준비되지 않은 세계
- Perplexity Computer - 19개 AI 모델을 조율하는 범용 디지털 워커
- Claude Cowork 반복 작업 스케줄링 기능 출시
- Claude Code에서 발견된 3가지 보안 취약점: RCE와 API 키 탈취
- Anthropic, 핵심 AI 안전 서약 RSP 철회
- AI가 만든 테스트는 전부 통과했지만, 코드에는 버그가 남아있었다
- Google AI 검색이 Grounding Snippet을 추출하는 방법 분석
- Claude Code Remote Control - 로컬 세션을 어디서든 이어받기
- Andrej Karpathy: AI 에이전트가 코딩의 패러다임을 바꾸다
- 프롬프트 반복으로 LLM 성능 향상 - Google 연구팀 논문
- AI가 내 스타트업을 죽였다 - 포스트 Claude 시대의 마케팅 미래
- AGENTS.md를 올바르게 사용하는 방법 - /init 자동 생성이 오히려 비용을 높이는 이유
- Claude Code에 Gemini 연결하기 - 프록시 백엔드로 저렴하게 사용
- Anthropic의 AI 모델 증류 공격 탐지 및 방지 사례
- Taalas - LLM 가중치를 실리콘에 새기다, 초당 17,000 토큰 ASIC 칩
- 2026년 2월 코딩 에이전트 현황 - Claude와 Codex 병행 활용
- 코드를 읽지 않는 시대, 엔지니어는 무엇을 읽어야 하는가
- Claude Code 구축에서 얻은 교훈 - 프롬프트 캐싱이 전부다
- FINAL Bench - AI 메타인지를 측정하는 첫 번째 벤치마크
- METR의 AI 시간 지평 연구 - AI 자율성이 6개월마다 두 배씩 성장한다
- AI 코딩 성능 10배 개선한 방법 - 모델이 아닌 편집 도구를 바꿨다
- AI 에이전트 파일 처리 성공률 33%→95% - 파일 네이티브 접근법의 발견
- AI 검색에 스팸이 침투하고 있다 - GEO 스팸의 구조와 플랫폼의 대응
- 같은 AI 모델이 다르게 작동하는 이유 - 시스템 프롬프트의 숨은 영향력
- AI는 왜 5분 전 말을 까먹을까 - GitHub Copilot의 에이전틱 메모리 시스템
- 멀티 에이전트 오케스트레이션 실전: Microsoft Agent Framework로 만드는 AI 팟캐스트 스튜디오
- Gemini CLI 훅 기능, AI 에이전트에 보안 정책 자동 주입
- ChatGPT가 진짜 개발 환경이 됐다, Bash·npm·pip 설치까지 지원
- AI 에이전트가 자면서 코딩한다, Ralph Wiggum 기법 실전 가이드
- Claude 에이전트 팀, 2주 만에 리눅스 컴파일러 제작한 방법
- AI 에이전트 샌드박스 통합, 두 가지 아키텍처 패턴과 선택 기준
- Steve Yegge가 말하는 AI 에이전트 시대와 소프트웨어 엔지니어링의 미래
- WordPress.com Claude 커넥터 - MCP 기반 AI 사이트 분석 통합
- Andrej Karpathy의 CLAUDE.md - AI 코딩 실수를 줄이는 65줄 가이드라인
- Cursor Composer 1.5 - 강화학습 20배 스케일링으로 코딩 성능 향상
- Claude Cowork Windows 완전 지원 - macOS와 동일한 기능 제공
- 안전한 자연어 기반 API 구축 방법 - 프로덕션 환경을 위한 아키텍처 가이드
- Claude Code Agent Teams(Swarms) - 멀티 에이전트 협업 아키텍처 가이드
- Hot Mess of AI - AI가 실패할 때 체계적 오류보다 비일관성이 더 위험하다
- Claude Opus 4.6 Fast Mode - 2.5배 빠른 응답, 새로운 고속 모드
- SmythOS SRE - AI 에이전트를 위한 오픈소스 런타임 환경
- Craft Agents - AI 에이전트를 위한 오픈소스 인터페이스
- Claude Opus 4 활용 가이드 - 최대 효과를 이끌어내는 5가지 핵심 전략
- 두 종류의 AI 사용자: 놀라운 격차가 벌어지고 있다
- AI 의사결정지원 시스템이 실패하는 진짜 이유 - 신뢰 보정의 부재
- AI 코드와 소프트웨어 장인정신
- AI 에이전트 코딩 80% 시대의 진짜 문제 - 이해 부채
- Claude Code /insights 명령어 - 사용 패턴 분석과 워크플로 개선 제안
- 국제 AI 안전 보고서 2026 - 범용 AI의 역량과 위험
- 두 번째 사전학습 패러다임, 세계 모델링의 시대
- AI 코딩 도구, 속도는 늘지 않고 학습은 약해진다? 앤트로픽 실험 정리
- AI는 이미 인간 수준인가? 튜링 기준으로 본 AGI 논쟁
- Qwen3-Coder-Next - 80B 파라미터 중 3B만 활성화하는 초희소 코딩 에이전트 모델
- MemoryLLM - 트랜스포머 FFN을 해석 가능한 플러그앤플레이 메모리로 분리
- 임베딩 확장이 전문가 확장보다 우수하다 - LLM 아키텍처의 새로운 방향
- SCONE - 언어 모델의 임베딩 레이어 확장 기법
- AI 코딩 보조 도구가 개발자 기술 형성에 미치는 영향 - Anthropic 연구
- Pi - OpenClaw의 핵심이자 극도로 단순화된 코딩 에이전트 분석
- Clawdbot의 메모리 관리 - Markdown 기반 하이브리드 메모리 아키텍처
- CB Insights 2026 기술 트렌드 보고서 - AI 에이전트부터 소버린 AI, 피지컬 AI까지
- AI 창의성의 역설 - 평균은 넘었지만 천재는 못 따라간다
- 2026년 AI 코딩 주요 트렌드 - 자율 에이전트 루프부터 멀티 에이전트 오케스트레이션까지
- AI에게 창의적이라고 요청하지 마라 - 제약으로 창의성을 끌어내는 프롬프트 기법
- YaRN - LLM 컨텍스트 윈도우를 효율적으로 확장하는 방법
- DeepPlanning - 장기 계획 수립 에이전트를 위한 벤치마크
- Kimi K2.5 - Moonshot AI의 1조 파라미터 오픈 웨이트 멀티모달 모델
- 2026년 데이터 엔지니어링을 재편하는 5가지 AI 트렌드
- ChatGPT 사용 시 뇌에 축적되는 인지 부채(Cognitive Debt) - MIT Media Lab 연구
- vLLM Sleep Mode - 단일 GPU에서 다중 모델 전환을 위한 제로 리로드 솔루션
- Engram - 조건부 메모리 검색을 통한 LLM의 새로운 희소성 축
- DeepSeek-R1 - 강화학습을 통한 LLM 추론 능력 향상
- Inferact - vLLM 상용화 스타트업, 1.5억 달러 시드 투자 유치
- vLLM 메모리 누수 디버깅 - Heaps do lie
- OpenAI Codex Agent Loop - 에이전트 루프의 내부 동작 원리
- Claude Skills - AI 에이전트를 위한 확장 가능한 스킬 시스템
- Mantic.sh - AI 에이전트를 위한 맥락 인식 코드 검색 엔진
- AI 에이전트를 위한 좋은 스펙 작성법
- OpenAI Healthcare 출시 - ChatGPT Health와 OpenAI for Healthcare
- Open Responses - LLM 상호운용성을 위한 오픈 표준
- Copilot CLI Agents - VS Code에서 Claude와 Gemini 통합하기
- AI 모델 붕괴(Model Collapse) - AI가 AI를 학습하면 생기는 문제와 예방법
- Planning with Files - Manus 방식으로 AI 에이전트 컨텍스트 문제 해결하기
- claude-mem - Claude Code 세션 간 컨텍스트를 자동 보존하는 메모리 시스템
- Anthropic Labs - Claude의 최첨단 기능을 실험하는 새로운 팀
- Claude Cowork - 개발자를 넘어 모든 업무로 확장되는 AI 에이전트
- Claude의 Healthcare 및 Life Sciences 분야 진출
- Claude Research Plugin - 체계적인 리서치를 위한 범용 플러그인
- vLLM Semantic Router v0.1 Iris - MoM을 위한 시스템 레벨 라우터
- vLLM HaluGate - 토큰 레벨 환각 탐지 시스템
- OpenCode에서 Claude Code 연동 차단 - Harness OAuth 우회 종료
- vLLM Custom Logits Processors로 특정 언어 토큰 차단하기
- 바이브코딩을 하면서 과몰입(터널)에 빠지지 않고 진짜 몰입하는 법
- 주요 데이터베이스의 MCP 지원 현황과 활용
- Claude Code 제작자가 말하는 효과적인 활용법
- GLM-4.7 - 코딩 전문 LLM의 새로운 강자
- OpenCode - AI 기반 코딩 어시스턴트
- DeepResearch Bench의 RACE와 FACT 평가 방법
- GPT-OSS-120B MoE 모델에서 QLoRA 튜닝이 실패하는 이유와 NeMo의 해결책
- Claude Code로 LLM 파인튜닝하기 - HuggingFace Skills
- LangSmith vs Langfuse
- LLM 서빙 환경 구축하기 + 모니터링
- 바이브 코딩
- 추론 모델의 환상
- AI는 모든 문제를 해결할 수 있는가?
- PandasAI를 알아보자
- AGI 직전이라더니 내가 사용하는 AI는 왜 멍청할까?
- Ollama 사용 방법
- A2A란 무엇인가?
- MCP 보안 이슈