掲載済み (2026-03-21号)
#115 167文字 • 1分

LoKI - LinuxおよびWSL向けのローカルAIアシスタント:LLMを完全にオフラインで実行

原題: LoKI – Local AI Assistant for Linux & WSL | Run LLM Models Locally

英語

掲載情報

概要

LoKIは、LinuxとWSL環境でLLMをローカル実行するために設計された、プライバシー重視かつMCP対応のC++製AIアシスタントです。

詳細内容

LoKIは、データの外部送信を一切行わず、ユーザーのローカル環境(LinuxまたはWindows WSL)で大規模言語モデル(LLM)を実行するための強力なアシスタントツールです。主な特徴として、C++による高速な動作、CPU/CUDA/Vulkan/OpenCLを自動検知するダイナミックバックエンド、Hugging Faceからの直接ダウンロードおよびGGUF形式への変換・再量子化機能を備えています。特に注目すべきは、Model Context Protocol (MCP) をネイティブに統合している点であり、ローカルファイルへのアクセスやツールの拡張が容易に行えます。組み込みのツールエディタにより、AIの支援を受けながら独自の機能を開発することも可能です。AppImage形式で提供されており、プライバシーを最優先しつつ実用的なAIワークフローを構築したいLinuxユーザーにとって非常に実用的なソリューションとなっています。