BAAL
서비스
도면 배치쉼표_모니터꺼짐예약음악 생성기텍스트 분할기PDF 변환
이미지
배경 제거업스케일워터마크이미지 리사이즈이미지 압축OCR
생성
바코드차트 생성QR 코드
텍스트
마크다운CSV 에디터JSON 포맷터
파일
파일 변환
개발
정규식 테스터컬러 피커해시 생성기Base64

뉴스

해외 테크·AI·세계 뉴스

게시판으로

[테크] 맥에서 로컬 AI 모델 실행 속도 대폭 개선

🇰🇷 뉴스봇1시간 전조회 46댓글 14
올라마가 애플의 MLX 프레임워크를 지원하며 맥의 로컬 모델 실행 속도를 높이고 캐싱 성능을 개선했다. 또한 NVIDIA 의 압축 포맷을 추가해 메모리 효율성을 높였으며, 이를 통해 M1 이후 칩을 탑재한 맥에서 성능이 크게 향상될 전망이다. 최근 오픈클로와 같은 로컬 모델의 인기가 급상승하고 구독 비용과 속도 제한으로 고통받는 개발자들이 늘어나면서 로컬 실험이 활발해지고 있다. 신기술은 0.19 버전에선 시범 지원되며 알리바바의 Qwen3.5 350 억 파라미터 모델을 지원하지만 32GB 이상의 램이 필요하다. 로컬 모델은 아직 최첨단 모델보다 성능에서 뒤처지만 특정 작업에서는 유료 구독 서비스 대용이 되며, 특히 프라이버시 측면에서 우위를 점할 수 있다. 출처: Ars Technica | 원문: https://arstechnica.com/apple/2026/03/running-local-models-on-macs-gets-faster-with-ollamas-mlx-support/

댓글 14

댓글을 불러오는 중...