VSCode から Zed へ移行して、Codex CLI まで Rust 製で揃った話


はじめに

エディタは Zed、AI は Codex CLI。気づいたら、開発環境が Rust 製のツールで揃っていました。

VSCode から Zed への移行をきっかけに、AI コーディングツールも含めて環境を見直したところ、軽量・高速・依存最小という共通の哲学を持つ構成に落ち着きました。その記録を残しておきます。

結論から先に

最終的にこうなりました。

  • エディタ:Zed(Rust 製、低メモリ、サブ秒起動)
  • AI CLI:Codex CLI(Rust 製、ネイティブバイナリ)
  • 月額:ChatGPT Plus $20(Codex も利用可能。利用上限やクレジット制はあり)

Rust 製で揃えたら、軽くて速くて気持ちいい、というのが体験としての結論です。

VSCode が重くなってきた

きっかけは単純で、VSCode が重く感じるようになってきたことです。

フロントエンドのプロジェクト、バックエンドのプロジェクト、それにドキュメント用のフォルダを別ウィンドウで開くと、メモリ使用量が 合計 3〜4 GB くらいになっていました(Activity Monitor で確認)。1 ウィンドウあたり 1〜1.5 GB くらいの感覚です。

ファンが回り始めて「また重いな」と思うことが増え、ワークスペース設定で軽量化できるのは知っていたものの、プロジェクトごとに設定するのが面倒で結局放置していました。

Zed に切り替えてみたら、同じプロジェクトを開いても 300 MB 前後で動いています。3 つ開いても 1 GB に届かないくらい。体感で VSCode の 1/5〜1/10 といったところで、ファンが静かなのが地味に嬉しいです(数値は私の Mac での参考値です)。

Zed のここが良かった

特に気に入っているのは、拡張機能を入れずに、最初から動くところです。

VSCode だと Rust 開発を始めるときに rust-analyzer 拡張を入れて、CodeLLDB を入れて、Even Better TOML を入れて……と地味に手間がかかります。Zed は Cargo.toml を開いた瞬間に補完も診断も動きました。Rust だけでなく TypeScript、Python、Go、C/C++ あたりも同じで、コアに統合されています。

地味に大きいのが Dev Containers が標準装備されていること。VSCode だと Dev Containers 拡張を入れて、内部で VSCode Server がコンテナ内に立ち上がる構成ですが、Zed は .devcontainer/devcontainer.json があれば追加インストールなしで動きます。Remote SSH も同様で、ローカル UI の快適さでリモート開発ができます。

キーバインドの移行も base_keymap: "VSCode" を一行入れるだけで、よく使うショートカットはほとんどそのまま使えました(ごく一部のカスタムバインドは手動で keymap.json に追加が必要です)。

設定例を載せておきます。

{
  "base_keymap": "VSCode",
  "lsp": {
    "rust-analyzer": {
      "initialization_options": {
        // cargo check の代わりに clippy を使う(より厳しい lint)
        "check": { "command": "clippy" }
      }
    }
  }
}

ファイルパスは ~/.config/zed/settings.json です。

Zed の弱いところ

正直に書くと、まだ弱い部分もあります。

拡張エコシステムは VSCode に比べると小さく、GitLens 相当の高機能な Git GUI や Jupyter の完全サポートはまだありません。UI の日本語化拡張も今のところなく、英語のみです。Dev Containers も自動再ビルドはサポートしていないので、設定を変えたら手動で開き直す必要があります。

なので、Jupyter を頻繁に使う人、GitLens のリッチな UI に依存している人、UI が日本語じゃないと厳しい人は、VSCode のままが無難だと思います。

逆に Rust や TypeScript 中心の開発で、エディタの軽さを重視する人にはおすすめできます。私はこちら側でした。

AI ツールは Codex に落ち着いた

エディタを乗り換えると、AI 連携も見直すことになります。最初は Zed のネイティブ AI 連携で Anthropic API を試したのですが、従量課金が個人の対話的なコーディング用途には合わず、固定料金の ChatGPT Plus + Codex CLI に落ち着きました(このあたりの試行錯誤はまた別の機会に書こうと思います)。

決め手は固定料金の安心感だったのですが、もうひとつ後から気づいた理由があります。

Codex CLI も Rust 製だった

導入したあとにふと「これ何で書かれてるんだろう」と GitHub を覗いてみたら、現在の Codex CLI は Rust 実装がメインになっていました。

調べると、2025 年 6 月ごろから TypeScript/Node.js 版から Rust 版への移行が進められたとのこと。現在のリポジトリでは Rust 実装が maintained CLI として扱われており、GitHub Releases からはプラットフォーム別のネイティブバイナリも配布されています。

npm install -g @openai/codex でも導入できますが、実体としてはネイティブバイナリを使う構成です。Homebrew や GitHub Releases から入れれば、Node.js を普段の実行環境に置かずに使えるのも良いところです。

つまり、私の構成は意図せず以下のようになっていました。

  • エディタ:Zed(Rust 製)
  • AI CLI:Codex CLI(Rust 製、ネイティブバイナリ)

ネイティブバイナリ・低メモリ・依存最小という方向性が揃っていて、起動も速く、気持ちよく動きます。

ひとつ補足すると、生成されるコードの品質はクラウド側のモデルで決まります。CLI が Rust 製であることと AI の出力精度は別の話なので、そこは混同しないように。あくまで動作面・哲学面のメリットとして捉えています。

セットアップ

npm install -g @openai/codex
codex   # ブラウザでログイン

Homebrew を使う場合は、こちらでも入れられます。

brew install --cask codex

Zed の Settings から External Agents で Codex CLI を選ぶだけで連携できます。

モデルの使い分け

タスクごとにモデルを切り替えています。

用途 モデル
Rust コーディング codex 系モデル
文章・マニュアル作成 GPT-5.5
軽い質問 mini 系モデル

ざっくり言うと、コードは codex 系、文章は GPT-5.5 という使い分けです。モデル名や利用上限は変わることがあるので、ここは固定のおすすめというより、私の使い分けメモとして見てもらえればと思います。

最終構成

エディタは Zed、AI CLI は Codex CLI、キーバインドは VSCode 互換、月額固定費は ChatGPT Plus の $20。VSCode と比べてメモリ消費が 1/5〜1/10 になり、起動も速く、設定もシンプルになりました。Rust や TypeScript 中心の開発なら、この組み合わせはかなり快適だと思います。

おわりに

「エディタも AI も Rust 製で揃える」なんて発想は最初なかったのですが、結果的にこの構成に落ち着いてみると、共通の哲学があって心地よく感じています。

VSCode が重いと感じている方、Rust や TypeScript 中心で開発している方は、一度 Zed を触ってみる価値があると思います。設定移行も base_keymap 一行でだいたい済むので、思ったより乗り換えコストは低いです。合わなければ戻ればいいだけなので、気軽にどうぞ。


2026年5月時点の情報です。価格・仕様は変動するため、各公式ページで最新情報をご確認ください。

水上凌佑

 水上凌佑

スキル:Java/C/C++/Node.js/PHP/Python/TypeScript/PostgreSQL/MySQL/SpringBoot/Rust/Linux(Omarchy)/AWS/Gemini/Antigravity/Security/Software Design

コメント

この記事へのコメントはありません。

関連記事