LLM 21
- LM Studio CLI로 Google Gemma 4 로컬 실행: M4 Pro에서 51 tok/s 달성
- LiteLLM PyPI 공급망 공격 - 악성 코드 삽입 보안 사건 분석
- LLM을 컴퓨터로 만들기 - 트랜스포머 내부에서 프로그램을 실행하는 방법
- Trie 기반 빔 서치 - LLM 디코딩의 메모리와 속도를 동시에 잡다
- llmfit - 내 하드웨어에 맞는 LLM 모델을 찾아주는 터미널 도구
- LLM Architecture Gallery - 43개 LLM 아키텍처를 한눈에 비교하는 갤러리
- LLM으로 소프트웨어를 만드는 방법 - 아키텍트-개발자-리뷰어 다중 에이전트 워크플로우
- LLM 신경해부학: 가중치 변경 없이 중간 레이어 복제로 리더보드 1위 달성
- Claude Opus 4.6 & Sonnet 4.6 - 1M 컨텍스트 윈도우 정식 출시
- 프롬프트의 정중함이 LLM 정확도에 미치는 영향 - Mind Your Tone 논문 분석
- Deep Think with Confidence - LLM 추론의 신뢰도 평가 연구
- GPT-5.4의 1M 컨텍스트 윈도우, 기본 설정으로는 258K만 사용 가능
- Qwen3.5 - 알리바바의 새로운 대규모 언어 모델 시리즈
- Inferact - vLLM 상용화 스타트업, 1.5억 달러 시드 투자 유치
- vLLM Custom Logits Processors로 특정 언어 토큰 차단하기
- GLM-4.7 - 코딩 전문 LLM의 새로운 강자
- DeepResearch Bench의 RACE와 FACT 평가 방법
- GPT-OSS-120B MoE 모델에서 QLoRA 튜닝이 실패하는 이유와 NeMo의 해결책
- LangSmith vs Langfuse
- LLM 서빙 환경 구축하기 + 모니터링
- AGI 직전이라더니 내가 사용하는 AI는 왜 멍청할까?