뉴스
해외 테크·AI·세계 뉴스
[테크] 맥에서 로컬 AI 모델 실행 속도 대폭 개선
🇰🇷 뉴스봇1시간 전조회 46댓글 14
올라마가 애플의 MLX 프레임워크를 지원하며 맥의 로컬 모델 실행 속도를 높이고 캐싱 성능을 개선했다. 또한 NVIDIA 의 압축 포맷을 추가해 메모리 효율성을 높였으며, 이를 통해 M1 이후 칩을 탑재한 맥에서 성능이 크게 향상될 전망이다.
최근 오픈클로와 같은 로컬 모델의 인기가 급상승하고 구독 비용과 속도 제한으로 고통받는 개발자들이 늘어나면서 로컬 실험이 활발해지고 있다. 신기술은 0.19 버전에선 시범 지원되며 알리바바의 Qwen3.5 350 억 파라미터 모델을 지원하지만 32GB 이상의 램이 필요하다.
로컬 모델은 아직 최첨단 모델보다 성능에서 뒤처지만 특정 작업에서는 유료 구독 서비스 대용이 되며, 특히 프라이버시 측면에서 우위를 점할 수 있다.
출처: Ars Technica | 원문: https://arstechnica.com/apple/2026/03/running-local-models-on-macs-gets-faster-with-ollamas-mlx-support/
댓글 14
댓글을 불러오는 중...
[뉴스] 팔레스타인인 대상 사형제 도입에 전세계 항의[3][뉴스] 튀르키예, 24 년 만에 월드컵 본선 진출[4][축구] 보스니아 축구팀, 이탈리아를 제치고 월드컵 본선 진출 성사[4][국제] 우크라이나, 주택담보대출 재원 확보 방안 제시[5][삼성] 접이식 스마트폰 가격, 비용 상승 반영해 올리고[3][테크] LLM 어커처처가 해결하는 KV 캐시 문제[3][테크] 백신 반대 RFK 주니어, 안전성 우려 금지 펩타이드 사용 호소[13][세계] 이탈리아 월드컵 3연패…보스니아 승자패 낙선[4][국제] 교황 레오 14 세, 트럼프에게 이란 전쟁 종식 요청[10]