「AIツールのサブスク代、今月いくらだっけ?」
フリーランスエンジニアをやっていると、この問いが毎月じわじわ胃にくる。ChatGPT Plus、Claude Pro、GitHub Copilot……気がつけば月に1万円以上をAI様にお布施している。便利だからしょうがないとは思いつつ、「これ、自分のパソコンで動かせたら最高じゃない?」と一度は考えたことがあるはずだ。
この記事では、最近話題のローカルLLM(大規模言語モデルを自分のPC上で動かす方法)について、フリーランスの視点からメリット・デメリット・実際にやってみた感想を正直に書く。きっかけは、海外のエンジニアが「Llama 3をローカルで動かしてプライベートな学習AIを作った」という事例を見かけたことだ。「これ、フリーランスの業務にも使えるのでは?」と思って調べてみた結果をまとめる。
ローカルLLMとは何か?なぜ今アツいのか
まず「ローカルLLM」という言葉を噛み砕こう。普段使っているChatGPTやClaudeは、クラウド型だ。質問を送ると、OpenAIやAnthropicのサーバーで処理されて答えが返ってくる。つまり、自分のデータが外部のサーバーに送られている。
一方、ローカルLLMは自分のPC上でAIモデルを直接動かす。データは外に出ない。インターネット接続すら不要だ。
代表的なモデルとしては、Meta(旧Facebook)がオープンソースで公開しているLlama(ラマ)シリーズがある。最新のLlama 3は80億パラメータのモデルでも、ゲーミングPC程度のスペックがあれば動かせる。「80億パラメータ」と聞くとすごそうだが、ChatGPTの中身は数千億パラメータと言われているので、頭の良さでは正直かなわない。ただし、特定の用途に絞れば十分実用的なレベルだ。
海外では、このLlama 3をローカルで動かして個人専用の学習AIアシスタントを作った事例がある。FastAPI(Pythonの高速なWeb開発フレームワーク)とLangChain(LLMを組み合わせて使うためのライブラリ)を使い、「ユーザーの理解度のつまずきを検知して、足りない前提知識を補う」という仕組みまで実装していた。しかも会話内容をすべてローカルに保存して、学習の記録を蓄積していく設計だ。
これを見て思った。「フリーランスの業務ナレッジ管理に使えるのでは?」と。
フリーランスがローカルLLMを使う3つのメリット
1. API代・サブスク代がゼロになる(理論上は)
これが最大の魅力だ。クラウドのAI APIは使った分だけ課金される。GPT-4のAPI代が月に数千円〜数万円かかっている人も多いだろう。ローカルLLMなら、初期投資(GPUなど)さえあればランニングコストは電気代だけだ。
僕の場合、AIツール関連の月額費用はだいたい1.5万円くらい。年間18万円。これが仮に半分でもローカルに置き換えられたら、年間9万円の節約になる。フリーランスにとって固定費の削減は利益に直結するので、これは大きい。
2. クライアントのデータを外に出さなくて済む
フリーランスあるあるだが、「このコード、ChatGPTに貼って大丈夫かな……」と一瞬ためらうことがある。NDA(秘密保持契約)を結んでいる案件のコードやドキュメントを、外部のAPIに送るのはグレーゾーンだ。
ローカルLLMなら、データは自分のPCから一歩も外に出ない。NDA案件でも堂々とAIを使えるのは、実務上かなり大きなアドバンテージだ。
海外の事例でも、ローカル実行にこだわった理由として「学習者のつまずきや知識のギャップといったセンシティブな情報が、企業のトレーニングデータに吸い込まれないようにする」と明言されていた。フリーランスに置き換えれば、「クライアントの業務ロジックがAI企業のモデル改善に使われるリスクをゼロにできる」ということだ。
3. 自分専用にカスタマイズできる
先ほどの海外の事例では、「ナレッジファイル」という仕組みで、会話の内容を構造化して蓄積していた。ChatGPTの会話履歴とは違い、AIが自動的に整理してくれる永続的なメモのようなものだ。
フリーランスなら、これを「案件ごとのナレッジベース」として活用できる。たとえば:
- 案件Aの技術スタックや注意点をAIに覚えさせる
- 過去に踏んだハマりポイントを蓄積して、似た状況で警告を出す
- 自分がよく使うコードパターンを学習させる
「自分だけの業務アシスタント」が手元にいる状態だ。クラウド型のAIでも近いことはできるが、「データが完全に手元にある安心感」はローカルならではだろう。
正直に言う、ローカルLLMの「つらいところ」
メリットだけ書いて終わったら、それはポジショントーク記事だ。実際に触ってみて「うーん」と思ったところも正直に書く。
GPUが必要。そしてGPUは高い
Llama 3の80億パラメータモデルをまともに動かすには、VRAM(ビデオメモリ)が最低8GB、できれば16GB以上のGPUが欲しい。NVIDIAのRTX 4060 Tiあたりで5万円前後、RTX 4070なら8万円前後。AMD派なら、先述の事例で使われていたROCmスタック(AMDのGPU用AI開発環境)という選択肢もあるが、NVIDIA + CUDAに比べると情報が少なく、セットアップでハマる可能性がある。
「API代がゼロになる」と言っても、GPU代の元を取るには1〜2年はかかる計算だ。すでにゲーミングPCを持っている人なら初期投資なしで試せるが、そうでなければ「まずは普通にAPI使ったほうが安くない?」というのが冷静な結論だったりする。
セットアップが地味に面倒
ローカルLLMの世界は、ollama(ローカルでLLMを簡単に動かすためのツール)の登場でだいぶ楽になったとはいえ、まだまだ「ターミナルに慣れている人向け」だ。Pythonの環境構築、CUDAのバージョン合わせ、モデルのダウンロード……。エンジニアなら何とかなるが、「AIを業務で使いたいだけ」の人にはハードルが高い。
正直に言うと、僕も最初のセットアップで半日溶かした。「動いた!」と思ったら日本語の出力がめちゃくちゃだったり、回答速度が遅すぎて実用にならなかったり。試行錯誤込みで楽しめる人でないと、途中で心が折れると思う。
頭の良さはクラウド型に負ける
これは認めざるを得ない。ローカルで動かせるサイズのモデル(80億〜130億パラメータ程度)は、GPT-4やClaude 3.5 Sonnetと比べると回答の質で明らかに劣る。特に複雑な推論や日本語の長文生成では差が顕著だ。
だから僕の結論は、「ローカルLLMは万能ではなく、用途を選ぶ」ということ。定型的なテキスト処理、コードの補完、ナレッジの整理など、比較的シンプルなタスクにはローカルLLM。高度な分析や長文の生成にはクラウド型。この使い分けが現実的だと思う。
フリーランスにとってのベストプラクティスは「ハイブリッド運用」
ここまで書いてきて、僕がたどり着いた結論はハイブリッド運用だ。
- 機密性が高いタスク → ローカルLLM(Llama 3、Mistralなど)
- 高品質な出力が必要なタスク → クラウド型AI(ChatGPT、Claudeなど)
- 大量の定型処理 → ローカルLLM(API代を気にせず回せる)
この切り分けをするだけで、月のAIコストは確実に下がる。特に「大量の定型処理」がある人はローカルLLMの恩恵が大きい。たとえばドキュメントの要約を100件回すとか、コードレビューの下読みをさせるとか、そういう「量で殴る」タスクだ。
また、NPU(ニューラルプロセッシングユニット)という、AI処理に特化したチップが最近のPCに搭載され始めている。IntelやQualcommの新しいCPUには標準でNPUが入っており、今後はGPUを別途買わなくても、ある程度のAI処理がPC標準機能でできるようになる見込みだ。2〜3年後にはローカルLLMのハードルがぐっと下がるかもしれない。
まとめ:ローカルLLMは「今すぐ全員やれ」ではなく「選択肢として持っておけ」
正直、2024〜2025年時点でローカルLLMを本格運用しているフリーランスはまだ少数派だと思う。セットアップの手間、GPUの初期投資、モデルの性能差を考えると、「普通にChatGPTのサブスク払ったほうが楽」というのが多くの人の現実的な判断だろう。
でも、この流れは確実に加速している。Metaを筆頭にオープンソースのモデルはどんどん賢くなっているし、ハードウェアも進化している。「いざとなったら自前でAIを動かせる」という選択肢を持っておくこと自体に価値があると僕は思う。
フリーランスにとって、ツールの選択肢が多いことは武器だ。クラウドに依存しすぎず、手元にも引き出しを持っておく。そんなスタンスで、ローカルLLMをウォッチしておくことをおすすめする。
【PR】フリーランスエンジニアにおすすめのツール
カゴヤ・ジャパン レンタルサーバー
ローカルLLMの検証用にVPSが欲しくなったとき、僕はカゴヤのVPSを使っている。GPU搭載プランもあり、「自宅PCのスペックが足りないけど、クラウドAPIは使いたくない」という微妙なニーズにちょうどハマる。初期費用無料で日額課金もできるので、実験的に使うのにちょうどいい。
マネーフォワード クラウド確定申告
GPUやAIサブスクの経費管理、ちゃんとやってる?フリーランスのAI関連支出は「通信費」や「消耗品費」に仕分けする必要があるが、マネーフォワードなら銀行口座やクレカと連携して自動で取り込んでくれる。確定申告の時期に「あのGPU代、どの勘定科目だっけ?」と慌てなくて済むのがありがたい。
SkillHacks
ローカルLLMを触るにはPythonの基礎が必要だが、「そもそもPythonよく分からん」という人にはSkillHacksが手っ取り早い。動画で学べるので、ドキュメントを読むのが苦手な人でも挫折しにくい。僕も最初のプログラミング学習は動画教材から入ったクチだ。


コメント