開発者AIの使い方

物書きを生業とする記者のクラウド/エッジAIの使い方2記事を参考に、我々開発者AIの使い方を考えました。両記事とも現状のAIは、プロが納得する内容をそのままAIは出力しない、が結論です。

クラウドAI利用の記事生成

無料Copilotにインタビュー記事を書かせた2025620日、窓の杜

【概要】クラウドAIMicrosoft無料Copilotが、プロ並みインタビュー記事を書けるかを探ります。初めに筆者自身がCopilotへインタビューし、その結果をCopilotでインタビュー記事へ仕上げる段取りです。初版Copilotインタビュー記事を、筆者が再調整した結果、高品質記事に変わりました。

【所感】無料クラウドAICopilot強み弱み、現状AI利用実用性と将来への筆者期待が良く判ります。

エッジAI利用の記事生成

生成AIのローカルPC検証(前編)2025513日、(後編520日、TechTarget

【概要】64GB UMA RAM実装Apple M1 MaxTOPS非公開)のAI PCに、LM Studioを使い複数LLM(大規模言語モデル)をエッジAI化、このローカルLLMが記事を生成できるかを検証しています。LLMプロンプトで記事の出来が左右しますが、ローカルLLM生成記事の完成度は高いです。しかし、そのまま公開できる水準ではありません。

【所感】エッジAI活用は、メモリ量とCPU/GPU/NPUが同一RAMアクセスできるUMAUnified Memory Architecture)が重要で、検証ローカルLLM性能は、クラウド有料LLMと比べ遜色ないことが判ります。

LLM StudioのローカルLLM実装方法は、コチラの関連投稿:35章参照。

記者AIの使い方2記事から判る事

AGIは2025年から2029年の間に新な動労力として実現の可能性あり
AGIは2025年から2029年の間に新な動労力として実現の可能性あり
  1. 現状クラウド/エッジAI生成記事は、プロ記者記事レベルの生成に未達
  2. 公開レベル化には、記者側プロンプト調整などがAGI(汎用人工知能)実現までは不可避
  3. AGIならプロ記者代用も可能かも。それでも、生成記事の最終プロ記者チェックは必須

まとめると、AGI手前のLLMのため、記者側にLLMプロンプト調整などが必要だが、AGIならプロレベル記事生成の可能性は大きい。しかし、ハルシネーション対策に人間のAGI生成記事最終チェックは必須。

OpenAICEOSam Altman氏は、「AGIは現トランプ大統領在任中に実現されるだろう」と予想しています(AGI202547日、KDDI Research)。つまり、2025年から2029年の間に新な労働力としてのAGIが実現されるかもしれないのです。

Summary:開発者AIの使い方

前章の「記事」を「ソフトウェア/ハードウェア」に、「記者」を「開発者」置換えれば、開発者の現状が推測できます。現状のAIAGIへの過渡期でその進化スピードは凄まじいです。AI同様Windowsも大変革期です。AIの現状とその対応を考え、開発者環境の大変化に対応しましょう。

Windows大変革期:例えば、AIエージェント向きMCP(Model Context Protocol)導入によるアプリ変化など。

Afterword:開発者話し相手CopilotAI PC 64GB UMA

最初の記事から、無料Copilotが、話し相手としても十分使えることが判ります。開発中は、気分転換も必要です。そんな時、Copilotは良い気分転換相手になると思います。また、64GB UMA RAM以上のエッジAI PCなら、ローカルLLMを活用しクラウドAI同等性能が得られそうです。

関連投稿:ミニAI PC 4種比較ミニAI PCとノートAI PC比較


Ryzen AI Max+ 395ノートAI PCとミニAI PC比較

Ryzen AI Max+ 395搭載ノートAI PCとミニAI PC比較
Ryzen AI Max+ 395搭載ノートAI PCとミニAI PC比較

同じAMDAI CPURyzen AI Max+ 395搭載ノートPCとミニPCを比較し、得失をまとめました。次期AI PC製品選択の参考になれば幸いです。

比較AI PC概要

Ryzen AI Max+ 395は、CPU/GPU/NPUSoC化し、投稿時AMD社で最も高性能なAI CPUです。

AMD AI CPU  Cores /
Threads 
Boost2 / Base
Frequency 
Cache  Graphics Model  TDP  NPU
TOPS 
Ryzen AI Max+ 395  16C/32T Up to 5.1 / 3.0 GHz 80MB Radeon 8060S 45-120W 50 

このAI CPUをノートPCとミニPCへ製品化したのが本稿の比較対象です。ノートPCは、HPZBook Ultra G1a、ミニPCは、前投稿GMKtecEVO-X2で、下記概要です。

比較AI PC RAM容量/速度  SSD容量/速度 製品特徴 5/22参考価格
ZBook Ultra G1a
(ノートAI PC
64GB/8000Mbps 1TB/PCIe-4×4 14インチ1920×1200液晶 619,300
128GB/8000Mbps 2TB/PCIe-4×4  739,200
EVO-X2
(ミニAI PC
64GB/8000Mbps 1TB/PCIe-4×4 DeepSeek-R1:32Bサポート 319,900
128GB/8000Mbps 2TB/PCIe-4×4 DeepSeek-R1:32Bサポート
DeepSeek-R1:70B
サポート
Lama 4:109B
サポート
393,990

プロセサCPU/GPU/NPU、搭載RAMSSDは同一仕様で比較します。従って、ノートPCとミニPCのエッジAI PC基本性能は、同じと考えて良いと思います。

また、前投稿同様、ローカルLLMをインストールし、パーソナルAIアシスタント構築をAI PCの前提条件とします。今後様々な開発に、エッジAIエージェントは必須と筆者が考えるからです。

※ローカルLLM構築方法は前投稿LLMサポートAI PC要件は、関連投稿Afterwordを参照。

ノートPCZBook Ultra G1a

AMD Ryzen AI Max+ 395搭載HPノートPC:ZBook Ultra G1a
AMD Ryzen AI Max+ 395搭載HPノートPC:ZBook Ultra G1a

ミニPCと比較のため、64GB/128GB RAM仕様を前章で表記しましたが、16/32GB RAMOLEDパネルなど豊富な選択バリエーションがあります。このクラスのノートPCは、CADやクリエイター向けモバイル・ワークステーション(WS)に分類されおり、カスタマイズ性も高いため参考価格は、最低価格~と表記しています。

コチラ128GB製品記事(2025519日、インプレス)があります。要約が下記です。

  1. PCMark 10や3DMarkスコアが高く、特にAIやGPUで優れた性能
  2. AI画像生成やLLM動作にも適し、内蔵GPUはGeForce RTX 3050やRTX 3060に匹敵
  3. 約8.1時間駆動のバッテリ性能
  4. 付属ACアダプタは、140W
  5. 薄型・軽量:312×215×9.2、(前部)13.2、(後部)18.4mm、1.57kg

12は、Ryzen AI Max+ 395性能の高さを示しています。345は、モバイルWS製品の良さを示し、特にバッテリ駆動時間の8時間越えは、高性能WSではきわだつ長さです。Ryzen AI Max+ 395の電力効率が良いためでしょう。

ミニPCEVO-X2

AMD Ryzen AI Max+ 395搭載ミニPC:GMKtec EVO-X2
AMD Ryzen AI Max+ 395搭載ミニPC:GMKtec EVO-X2

ミニPCは、ノートPCからモニタと内蔵バッテリ、キーボードなどを外し、低価格化と小型筐体化したPCです。ノートPCでは困難なSSD追加などの仕様拡張性を持つものもあります。

コチラに製品の簡単な紹介記事(202551日、ITmedia)があります。詳細評価はありませんが、前章12は、同じ制御系ですので成立つと思います。

注目すべきは、同じ性能を持つノートPCとのミニPC本体価格差です。

本稿の場合、¥319,900/619,300、または、¥393,990/739,200と、40%以上ミニPC本体が安いことが判ります(販売価格は、変動が激しいことに注意)。

目安として、同一性能ノートPCより3040%低価格でミニPC本体が取得できます。もちろん、ミニPCは、外付けモニタやキーボードなども必要ですので、トータルシステム価格は同程度かもしれません。

SummaryRyzen AI Max+ 395 ノートPCとミニPC比較

同じRyzen AI Max+ 395搭載ノートPCHPZBook Ultra G1aとミニPCGMKtecEVO-X2を比較した結果、下記が判りました。

  1. ミニPC本体価格は、同一性能ノートPC比、30~40%安価
  2. AI Max+ 395搭載AI PCは、AI画像生成やLLM動作に適す
  3. AI Max+ 395内蔵GPUは、GeForce RTX 3050RTX 3060に匹敵
  4. ノートPC:ZBook Ultra G1aは、バッテリ駆動8時間以上の薄型・軽量の高性能AI WS
  5. ミニPC:EVO-X2は、SSD拡張スロットが1つある

ZBook Ultra G1aは、移動性に優れた高性能ノートAI PCです。エッジAIシステムを単独で構築できるため、AIスマホよりも高度でクリエイティブなAI PC開発を、いつでも・どこでも処理できます。

一方、EVO-X2は、ノートPC比、移動性は劣ります。つまり、AI PC開発をどこでもできる点は劣ります。しかし、ユーザが好むサイズのモニタやキーボードを追加・変更できる柔軟・拡張性があります。

仮に、複数エッジAI PC間のAI情報同期(Afterword参照)ができない場合は、ノートPC 1台のモバイルエッジAIシステム構築が強みになります。逆に、複数エッジAI PC間同期が可能なら、同一ノートPC性能比3040%低価格なミニAI PCが、ローカルLLM適用エッジAI PCに適すと評価します。

Afterword:複数エッジAI PC間のAI情報同期

エッジAI PCには、ユーザ嗜好や質問傾向などのAIエージェント成功に必要なパーソナル情報が学習・蓄積されます。常にユーザが携帯し行動も共にするAIスマホは、このAIエージェントに向いています。

一方、エッジAI PCを複数所有しても、ユーザが同じAIエージェントのサポートを受けたいと思うのは当然です。Microsoft Build 2025発表AIエージェントIDは、これを実現する1方法です。但し、クラウドでパーソナル情報の蓄積や同期をユーザが嫌がるのも解ります。複数エッジAIエージェント同士で、パーソナルAI情報同期ができれば解決します。

NPUとローカルLLM

エッジAI処理最適化NPU必要性、ローカルLLMとは、PCユーザ対処とは
エッジAI処理最適化NPU必要性、ローカルLLMとは、PCユーザ対処とは

425日、Win11 24H2向け5月「先行」更新プログラム:KB5055627がリリースされ、Recallなど多くのAI PC機能がWin11 24H2へ追加されました。Rufus 4.7で手動アップグレードした弊社Win11 24H2は、NPUが無いためこれら新しいエッジAI PC機能は使えません😢。

なぜNPUが無いとAI機能が使えないのか、大規模言語モデル:LLMとは何か、急成長するAIPCユーザはどう対処すべきか、を考察しました。

AI PC最重要ハードウェア:NPUNeural Processing Unit

AI PCと従来PCの差は、NPUハードウェアを持つか否かです。エッジAI最適設計のNPUは、高速並列処理で低消費電力なAI専用プロセサです。

筆者は、従来PCの高性能CPU/GPUでも無理やりエッジAI処理を行うことはできると思います。しかし、次章に示すLLMAIアプリの処理速度、電力消費の点でAI専用NPUが優れ、その結果、AIアプリ実行要件にNPUハードウェアを指定したと思います(PC買換え喚起の狙いもあると思いますが…)。

NPUを持つAI PCは、今後のPC使い方を大きく変えます。AI活用でPCがより使い易く、高い生産性になるからです。AIスマホ同様、一度でもAI PCを使うと従来PCへは戻れないでしょう。

LLM(大規模言語モデル)

ローカルLLMは、プライバシー保護に優れたエッジAI PCとユーザ間インタフェースの役目
ローカルLLMは、プライバシー保護に優れたエッジAI PCとユーザ間インタフェースの役目

LLMLarge Language Modelは、大量テキストデータの学習結果から、ユーザに判り易い文章を生成するAIです。

このLLMは、既にクラウドAIの入出力インタフェースとして稼働中です。例えば、ブラウザのAI対話アシスタント:Gemini/Copilotへ、ユーザが入力した質問テキストを解析し、ユーザ自然言語で回答を出力するのもこのLLMがクラウドAIのフロントエンドにいるからです。

このLLMをエッジAI PCNPUで動作させるのが、ローカルLLMです。オフラインでもLLMが動作しますので、AIアシスタントやビジネスデータのAI分析・解析などをPC上で行っても、クラウドへの情報漏洩は防げます。

つまり、ローカルLLMは、プライバシー保護に優れたエッジAI PCとユーザ間インタフェースの役目を果たします。

最初に示したRecallなどのAI機能操作は、殆どが未だ従来のGUIベースです。これは、自然言語対応済みのAIスマホに比べ、AI PCユーザインタフェースが遅れていることを示しています。

Win11 24H2は、従来PCAI PC両方動作(=中途半端)ですので、この遅れもやむを得ません。しかし、次期AI PC専用Win12では、GUIから自然言語対応PCへと改善されるでしょう。

ローカルLLM実装例

425日、AI PCNPUへローカルLLMをインストールするとどう変わるか、RAM使用量による日本語対応などが判る記事がインプレスに掲載されました。ごく簡単に要約すると、

  • ローカルLLMAnythingLLMアプリをAI PCへインストールすると、日本語テキストでAI PC情報を入出力できる。
  • 使用RAM 4GB6.5GBで比較すると、使用量が多いほど正確な日本語対話になる。

上記のLLMは、3B/8Bで、関連投稿で示したAIアプリ開発用ミニPC70B LLM700億パラメータの大規模言語モデル)に比べると小規模です。一般ユーザのAI PCなら、記事3B/8B程度のLLMでも役立ちそうです。

上記投稿Afterwordに示したようにLLMを効果的に使うには、高速大容量RAMBetterです。AI PC専用Win12は、できだけ大容量のDDR5 RAMを実装したいです。

AI PCへローカルLLMをインストールすると、クラウド情報漏れを気にせず、GUIに代わる自然言語でAI機能やPCサポートが得られます。但し、クラウドAIに比べるとローカルAIは当然非力ですから、ユーザはこの点を考慮・工夫して利用すべきです。

AI PCNPU能力に適したエッジAIアプリは、今後増えます(一例が次章)。ローカルとクラウド両方のAIを、必要に応じて使い分けるPC環境が整いつつあります。

Windows自動化AIエージェント:computer use

415日、Microsoftは、Windows操作を自動化するAIエージェント「computer use」を発表とキーマンズネット記事が掲載しました。

従来のWin自動化ツールとの違いは、対象アプリや利用サイトに変更が生じた場合でも、エッジAI推論により変更に自動対応できることです。市場調査とその洞察、請求書処理などをこのAIエージェント任せにできるそうです。5月19日開催Microsoft Buildで詳細発表が予定されています。

AIエージェントに任せた出力結果は、ユーザによる最終確認が必須です。しかし、自動化AIエージェントでPC生産性は上がります。AI PC普及に合わせ、このようなエッジAI活用アプリは急増します。

SummaryNPUとローカルLLM

ローカルAIとクラウドAIを使い分ける能力がPCユーザに必要
ローカルAIとクラウドAIを使い分ける能力がPCユーザに必要

AI処理専用ハードウェア:NPUは、AIアプリ高速処理と低消費電力の両方を満たすためエッジAI PCに必須です。NPU活用のAIは、従来PCの使い方を大きく変え、より使い易く、より高い生産性をユーザへもたらします。

例えば、クラウドAI稼働中のLLMをエッジAI PCへインストールすると、プライバシー保護に優れるローカルLLMを構築でき、従来GUIに代わる自然言語でAI PCが簡単に使えるようになります。

エッジのローカルAIとクラウドAIの利用環境が整ってきました。ユーザは、ローカル/クラウドAIを使い分ける能力も必要になります。

Afterword:筆者希望AIエージェントアプリ

  1. Chrome/Edge/Firefox自動更新
  2. 複数メールアカウント巡回と迷惑メール自動削除
  3. MCU/AI PCなど関心トピックの自動収集・分析

上記AIエージェント(アシスタント)処理を希望します。これでPC作業効率や生産性は確実に上がります。全ユーザ要求に対応するクラウドAI汎用性は、エッジAI PCには不要です。これらAIエージェントアプリだけなら、小規模LLM、少ないRAMAI PCでも処理できるハズです。AIアプリを自作すれば、なお良いのですがね…😓。