LLM 131
- llmfit - 내 하드웨어에 맞는 LLM 모델을 찾아주는 터미널 도구
- LLM Architecture Gallery - 43개 LLM 아키텍처를 한눈에 비교하는 갤러리
- LLM으로 소프트웨어를 만드는 방법 - 아키텍트-개발자-리뷰어 다중 에이전트 워크플로우
- Attention Residuals: 기존 잔차 연결을 대체하는 새로운 Transformer 아키텍처
- LLM 신경해부학: 가중치 변경 없이 중간 레이어 복제로 리더보드 1위 달성
- AgentHub: AI 에이전트를 위한 경량 협업 플랫폼과 Autoresearch GPT-2 튜닝 성과
- Claude Opus 4.6 & Sonnet 4.6 - 1M 컨텍스트 윈도우 정식 출시
- CanIRun.ai - 내 컴퓨터에서 실행 가능한 AI 모델을 확인하는 도구
- Claude 인터랙티브 시각화 - 대화 속 실시간 차트와 다이어그램
- 프롬프트의 정중함이 LLM 정확도에 미치는 영향 - Mind Your Tone 논문 분석
- Deep Think with Confidence - LLM 추론의 신뢰도 평가 연구
- Google Gemini Embedding 2 - 최초의 네이티브 멀티모달 임베딩 모델
- GPT-5.4의 1M 컨텍스트 윈도우, 기본 설정으로는 258K만 사용 가능
- Karpathy의 AutoResearch - AI 에이전트가 밤새 자율적으로 LLM 연구를 수행하는 프레임워크
- OpenAI GPT-5.4 공개 - 1M 컨텍스트와 네이티브 컴퓨터 사용
- LLM의 L은 거짓말을 의미한다 - AI 코드 생성의 위조 논란
- AI 코드 재작성을 통한 라이선스 세탁 논란 - chardet 사례
- Redis 코딩 패턴 - antirez의 새로운 공식 문서 사이트
- Anthropic Academy - 무료 AI 교육 플랫폼 출시
- Qwen3.5 - 알리바바의 새로운 대규모 언어 모델 시리즈
- AI 에이전트 메모리 실험: 요약된 지식이 오히려 성능을 떨어뜨린다
- Anthropic 페르소나 선택 모델(PSM) - Claude는 캐릭터다, AI의 인간적 행동 원리
- Sam Altman - AI가 AI 연구를 가속한다, 예상보다 빠른 초지능 도래와 준비되지 않은 세계
- Perplexity Computer - 19개 AI 모델을 조율하는 범용 디지털 워커
- Claude Cowork 반복 작업 스케줄링 기능 출시
- Claude Code에서 발견된 3가지 보안 취약점: RCE와 API 키 탈취
- Anthropic, 핵심 AI 안전 서약 RSP 철회
- AI가 만든 테스트는 전부 통과했지만, 코드에는 버그가 남아있었다
- Google AI 검색이 Grounding Snippet을 추출하는 방법 분석
- Claude Code Remote Control - 로컬 세션을 어디서든 이어받기
- Andrej Karpathy: AI 에이전트가 코딩의 패러다임을 바꾸다
- 프롬프트 반복으로 LLM 성능 향상 - Google 연구팀 논문
- AI가 내 스타트업을 죽였다 - 포스트 Claude 시대의 마케팅 미래
- AGENTS.md를 올바르게 사용하는 방법 - /init 자동 생성이 오히려 비용을 높이는 이유
- Claude Code에 Gemini 연결하기 - 프록시 백엔드로 저렴하게 사용
- Anthropic의 AI 모델 증류 공격 탐지 및 방지 사례
- Taalas - LLM 가중치를 실리콘에 새기다, 초당 17,000 토큰 ASIC 칩
- 2026년 2월 코딩 에이전트 현황 - Claude와 Codex 병행 활용
- 코드를 읽지 않는 시대, 엔지니어는 무엇을 읽어야 하는가
- Claude Code 구축에서 얻은 교훈 - 프롬프트 캐싱이 전부다
- FINAL Bench - AI 메타인지를 측정하는 첫 번째 벤치마크
- METR의 AI 시간 지평 연구 - AI 자율성이 6개월마다 두 배씩 성장한다
- AI 코딩 성능 10배 개선한 방법 - 모델이 아닌 편집 도구를 바꿨다
- AI 에이전트 파일 처리 성공률 33%→95% - 파일 네이티브 접근법의 발견
- AI 검색에 스팸이 침투하고 있다 - GEO 스팸의 구조와 플랫폼의 대응
- 같은 AI 모델이 다르게 작동하는 이유 - 시스템 프롬프트의 숨은 영향력
- AI는 왜 5분 전 말을 까먹을까 - GitHub Copilot의 에이전틱 메모리 시스템
- 멀티 에이전트 오케스트레이션 실전: Microsoft Agent Framework로 만드는 AI 팟캐스트 스튜디오
- Gemini CLI 훅 기능, AI 에이전트에 보안 정책 자동 주입
- ChatGPT가 진짜 개발 환경이 됐다, Bash·npm·pip 설치까지 지원
- AI 에이전트가 자면서 코딩한다, Ralph Wiggum 기법 실전 가이드
- Claude 에이전트 팀, 2주 만에 리눅스 컴파일러 제작한 방법
- AI 에이전트 샌드박스 통합, 두 가지 아키텍처 패턴과 선택 기준
- Steve Yegge가 말하는 AI 에이전트 시대와 소프트웨어 엔지니어링의 미래
- WordPress.com Claude 커넥터 - MCP 기반 AI 사이트 분석 통합
- Andrej Karpathy의 CLAUDE.md - AI 코딩 실수를 줄이는 65줄 가이드라인
- Cursor Composer 1.5 - 강화학습 20배 스케일링으로 코딩 성능 향상
- Claude Cowork Windows 완전 지원 - macOS와 동일한 기능 제공
- 안전한 자연어 기반 API 구축 방법 - 프로덕션 환경을 위한 아키텍처 가이드
- Claude Code Agent Teams(Swarms) - 멀티 에이전트 협업 아키텍처 가이드
- Hot Mess of AI - AI가 실패할 때 체계적 오류보다 비일관성이 더 위험하다
- Claude Opus 4.6 Fast Mode - 2.5배 빠른 응답, 새로운 고속 모드
- SmythOS SRE - AI 에이전트를 위한 오픈소스 런타임 환경
- Craft Agents - AI 에이전트를 위한 오픈소스 인터페이스
- Claude Opus 4 활용 가이드 - 최대 효과를 이끌어내는 5가지 핵심 전략
- 두 종류의 AI 사용자: 놀라운 격차가 벌어지고 있다
- AI 의사결정지원 시스템이 실패하는 진짜 이유 - 신뢰 보정의 부재
- AI 코드와 소프트웨어 장인정신
- AI 에이전트 코딩 80% 시대의 진짜 문제 - 이해 부채
- Claude Code /insights 명령어 - 사용 패턴 분석과 워크플로 개선 제안
- 국제 AI 안전 보고서 2026 - 범용 AI의 역량과 위험
- 두 번째 사전학습 패러다임, 세계 모델링의 시대
- AI 코딩 도구, 속도는 늘지 않고 학습은 약해진다? 앤트로픽 실험 정리
- AI는 이미 인간 수준인가? 튜링 기준으로 본 AGI 논쟁
- Qwen3-Coder-Next - 80B 파라미터 중 3B만 활성화하는 초희소 코딩 에이전트 모델
- MemoryLLM - 트랜스포머 FFN을 해석 가능한 플러그앤플레이 메모리로 분리
- 임베딩 확장이 전문가 확장보다 우수하다 - LLM 아키텍처의 새로운 방향
- SCONE - 언어 모델의 임베딩 레이어 확장 기법
- AI 코딩 보조 도구가 개발자 기술 형성에 미치는 영향 - Anthropic 연구
- Pi - OpenClaw의 핵심이자 극도로 단순화된 코딩 에이전트 분석
- Clawdbot의 메모리 관리 - Markdown 기반 하이브리드 메모리 아키텍처
- CB Insights 2026 기술 트렌드 보고서 - AI 에이전트부터 소버린 AI, 피지컬 AI까지
- AI 창의성의 역설 - 평균은 넘었지만 천재는 못 따라간다
- 2026년 AI 코딩 주요 트렌드 - 자율 에이전트 루프부터 멀티 에이전트 오케스트레이션까지
- AI에게 창의적이라고 요청하지 마라 - 제약으로 창의성을 끌어내는 프롬프트 기법
- YaRN - LLM 컨텍스트 윈도우를 효율적으로 확장하는 방법
- DeepPlanning - 장기 계획 수립 에이전트를 위한 벤치마크
- Kimi K2.5 - Moonshot AI의 1조 파라미터 오픈 웨이트 멀티모달 모델
- 2026년 데이터 엔지니어링을 재편하는 5가지 AI 트렌드
- ChatGPT 사용 시 뇌에 축적되는 인지 부채(Cognitive Debt) - MIT Media Lab 연구
- vLLM Sleep Mode - 단일 GPU에서 다중 모델 전환을 위한 제로 리로드 솔루션
- Engram - 조건부 메모리 검색을 통한 LLM의 새로운 희소성 축
- DeepSeek-R1 - 강화학습을 통한 LLM 추론 능력 향상
- Inferact - vLLM 상용화 스타트업, 1.5억 달러 시드 투자 유치
- vLLM 메모리 누수 디버깅 - Heaps do lie
- OpenAI Codex Agent Loop - 에이전트 루프의 내부 동작 원리
- Claude Skills - AI 에이전트를 위한 확장 가능한 스킬 시스템
- Mantic.sh - AI 에이전트를 위한 맥락 인식 코드 검색 엔진
- AI 에이전트를 위한 좋은 스펙 작성법
- OpenAI Healthcare 출시 - ChatGPT Health와 OpenAI for Healthcare
- Open Responses - LLM 상호운용성을 위한 오픈 표준
- Copilot CLI Agents - VS Code에서 Claude와 Gemini 통합하기
- AI 모델 붕괴(Model Collapse) - AI가 AI를 학습하면 생기는 문제와 예방법
- Planning with Files - Manus 방식으로 AI 에이전트 컨텍스트 문제 해결하기
- claude-mem - Claude Code 세션 간 컨텍스트를 자동 보존하는 메모리 시스템
- Anthropic Labs - Claude의 최첨단 기능을 실험하는 새로운 팀
- Claude Cowork - 개발자를 넘어 모든 업무로 확장되는 AI 에이전트
- Claude의 Healthcare 및 Life Sciences 분야 진출
- Claude Research Plugin - 체계적인 리서치를 위한 범용 플러그인
- vLLM Semantic Router v0.1 Iris - MoM을 위한 시스템 레벨 라우터
- vLLM HaluGate - 토큰 레벨 환각 탐지 시스템
- OpenCode에서 Claude Code 연동 차단 - Harness OAuth 우회 종료
- vLLM Custom Logits Processors로 특정 언어 토큰 차단하기
- 바이브코딩을 하면서 과몰입(터널)에 빠지지 않고 진짜 몰입하는 법
- 주요 데이터베이스의 MCP 지원 현황과 활용
- Claude Code 제작자가 말하는 효과적인 활용법
- GLM-4.7 - 코딩 전문 LLM의 새로운 강자
- OpenCode - AI 기반 코딩 어시스턴트
- DeepResearch Bench의 RACE와 FACT 평가 방법
- GPT-OSS-120B MoE 모델에서 QLoRA 튜닝이 실패하는 이유와 NeMo의 해결책
- Claude Code로 LLM 파인튜닝하기 - HuggingFace Skills
- LangSmith vs Langfuse
- LLM 서빙 환경 구축하기 + 모니터링
- 바이브 코딩
- 추론 모델의 환상
- AI는 모든 문제를 해결할 수 있는가?
- PandasAI를 알아보자
- AGI 직전이라더니 내가 사용하는 AI는 왜 멍청할까?
- Ollama 사용 방법
- A2A란 무엇인가?
- MCP 보안 이슈