この記事を特におすすめする人
・オフラインでAIを動かすことに興味がある人
・クラウドに依存せず、プライベートにAIを活用したい人
・英語や中国語の学習にMacを活かしたい人
MacBook Pro 24GBで、ローカルAIで実際にやっていること4つ
今回は今使っているMacBookProの話です。
しかもちょっとニッチな話で、
「MacBook Pro 24GBメモリがあれば、AIがローカルでどこまで使えるか」
について書きます。
結論から言うと、
ローカル環境、つまりネット接続しないオフライン環境でかなり使えます!
実際にローカルで動かしているのを、4つ紹介します!
1. 音声を書き起こす Whisper.cpp
まず一番の主役が「WhisperC++」です。
OpenAIが公開しているWhisperという音声認識モデルを、
C++で高速化して動かせるようにしたものです。
Whisper turboクラスのモデルなら、
Apple Siliconのニューラルエンジンをうまく使ってくれるので、
24GBのMacBook Proでサクサク動きます。
音声メモや会議の録音を流し込むと、
あっという間にテキストになります。
クラウドの書き起こしサービスを使わなくていいので、
「この音声を外に出したくない」という場面でも安心です。
2. ローカルで翻訳する translategemma:12b
書き起こしたテキストを、次に翻訳します。
使うのはOllamaやLM Studioを経由した翻訳特化モデルです。
日本語→英語、日本語→中国語、どちらも
実用レベルの精度が出ています。
プログラミング支援のような高度な推論は、
まだローカルモデルだと厳しい場面もあります。
でも翻訳に関しては、
もう十分だと感じています。
3. テキストを多言語の音声で読み上げる qwen-tts
ここが一番面白いところです。
翻訳した英語や中国語のテキストを、
音声として出力できます。
自分の日本語を、英語や中国語で読み上げてもらえる。
この流れが全部ローカルで完結します。
4.文字認識 glm-ocr
これもローカルで動かしてます。文字を認識してさっと文字起こしします。こんな感じで。
オフラインでも、こういうことができる
整理するとこうなります。
- 日本語で話す
- Whisper.cppでテキストに書き起こす
- ローカルの翻訳モデルで英語・中国語に変換する
- 変換したテキストを音声で読み上げる
全部オフラインで完結します。
ちなみに僕のMacBook Proは楽天経済圏を使って実質2割以上引きで購入しました。
その話はこちらの記事に書いています。

まとめ
MacBook Pro でローカルAIを動かすと、
- WhisperC++で書き起こし
- ローカルモデルで翻訳
- 音声で多言語読み上げ
- 画像を読み取って文字起こし
などがオフラインで完結します。
まず試してみるなら、Whisper.cppの導入が一番シンプルでおすすめです。
今後、もっと具体的にダウンロードの仕方や設定について詳しく説明していこうと思います!