글로벌 AI 뉴스를 한국어로
AI Weather
Agent Skills 프레임워크가 대거 오픈소스로 공개되며, AI의 거짓말 패턴 분석과 CTF 보안 우려가 제기되는 하루.
OpenAI, ChatGPT에 은행 계좌 연결 기능 추가로 개인 금융 서비스 진출
TechCrunchOpenAI가 Plaid와 제휴해 ChatGPT에서 사용자의 은행 계좌 연결을 허용하는 개인 금융 기능을 출시했다. 포트폴리오 성과, 지출 내역, 구독 서비스, 예정된 결제 등을 한눈에 볼 수 있는 대시보드를 제공한다. AI가 금융 데이터에 직접 접근하게 되면서 개인정보 보호와 보안에 대한 우려도 함께 제기되고 있다.
YouTube, AI 딥페이크 탐지 도구를 모든 성인 사용자로 확대
The VergeYouTube가 AI 유사성 탐지 프로그램을 18세 이상 모든 사용자로 확대한다고 발표했다. 이제 누구나 플랫폼에서 자신의 딥페이크 영상을 찾아달라고 요청할 수 있다. 딥페이크 콘텐츠가 급증하면서 플랫폼 차원의 보호 조치가 확산되는 추세다.
ArXiv, AI 슬롭으로 도배된 논문 업로드 연구자 차단 조치
The Verge학술 논문 사전 출판 플랫폼 ArXiv가 AI로 생성된 저질 콘텐츠(AI slop)가 포함된 논문을 올리는 연구자들을 차단하겠다고 발표했다. 저자가 AI 도구를 사용했다는 명백한 증거가 있으면서도 이를 공개하지 않은 경우 제재를 받게 된다. 학술계에서 AI 생성 콘텐츠의 투명성을 요구하는 목소리가 높아지고 있다.
Runway, 영상 AI로 Google과 경쟁하며 월드 모델 개발 추진
TechCrunchAI 영상 생성 스타트업 Runway가 영상 생성이 월드 모델로 이어지는 경로라며 Google과의 AI 경쟁에 본격 나선다고 밝혔다. 처음엔 영화 제작자를 도우던 회사가 이제 범용 AI 개발을 목표로 전환했다. AI 업계 아웃사이더라는 점이 오히려 장점이 될 수 있다고 강조했다.
Apple MLX, llama.cpp보다 3배 빠른 로컬 LLM 실행 - 단, 40K 컨텍스트 이하에서만
Towards AIApple의 MLX 프레임워크가 Apple Silicon Mac에서 llama.cpp보다 3배 빠른 LLM 추론 속도를 보여준다는 벤치마크 결과가 나왔다. Ollama 통합으로 93% 성능 향상을 달성했지만, 컨텍스트가 40K 토큰을 넘어가면 성능 우위가 사라진다. 로컬 LLM 실행에서 하드웨어 최적화의 중요성을 보여준다.
Osaurus, Mac에서 로컬과 클라우드 AI 모델을 통합하는 앱 출시
TechCrunchOsaurus가 Mac 사용자를 위한 AI 통합 앱을 출시했다. 로컬과 클라우드 AI 모델을 결합하면서도 사용자의 메모리, 파일, 도구는 자체 하드웨어에 보관한다. 프라이버시를 중시하면서도 다양한 AI 모델의 장점을 활용할 수 있는 하이브리드 접근법이 주목받고 있다.
LLM의 8가지 거짓말 패턴과 각각의 탐지 방법
Towards AI대부분 엔지니어는 할루시네이션은 잡아내지만 어텐션 싱크 붕괴, 아첨 편향, 캐시 프리픽스 중독 등은 놓친다는 분석이 나왔다. LLM이 거짓말하는 8가지 패턴을 정의하고 각각을 탐지하는 구체적인 방법을 제시했다. LLM의 신뢰성 검증이 단순한 사실 확인을 넘어 복잡한 인지 편향 분석까지 필요함을 보여준다.
Cursor 3.4의 클라우드 에이전트, 70% 캐시율로 로컬 Docker 루프 대체
Towards AICursor 3.4의 클라우드 에이전트를 18개 작업으로 테스트한 결과, 멀티-레포 에이전트 환경과 빌드 범위 시크릿, Dockerfile 레이어 캐싱이 5월 13일 출시됐다. 70% 캐시 히트율로 기존 로컬 Docker 워크플로우를 크게 개선했다. AI 코딩 도구의 클라우드 통합이 개발 효율성을 크게 높이고 있다.
머스크 vs 올트만 재판 3주차, 신뢰성 공방으로 마무리
MIT Tech Review머스크 vs 올트만 재판 마지막 주에 변호사들이 일론 머스크와 샘 올트만의 신뢰성을 놓고 공방을 벌였다. 올트만은 거짓말과 사리사욕 연루 이력에 대해 집중 추궁받았다. 이제 배심원단이 AI를 책임지는 사람들을 신뢰할 수 있는지 판단하게 된다.
AI 데이터센터 전력 낭비 해결하는 새로운 칩 개발
Towards AIAI 데이터센터에서 데이터 이동에 소모되는 전력 낭비를 막는 칩을 개발했다는 주장이 나왔다. 컴파일러나 런타임 없이 가중치를 한 번만 로드하는 방식으로 전력 효율성을 크게 높였다고 한다. AI 인프라의 에너지 효율성이 갈수록 중요해지는 가운데 하드웨어 차원의 혁신이 주목받고 있다.