AIエージェントの魅力

AIエージェントとRPARobotic Process Automationを説明します。どちらもPC作業効率の向上に役立つツールです。実績あるRPAAI PC普及で急増予想のAIエージェントを比較しました。

RPARobotic Process Automation

RPAは、PCユーザのキーボード入力、マウス操作などの処理をソフトウェアロボットが模倣し、これらを予め定義された手順に従い自動反復処理するツールです。事前に定義されていない事象発生時は、処理を停止します。

例えば、以下のような定型業務に向いています。

  • システムログイン処理
  • メールの構造化データ抽出とデータベースへの入力
  • 請求書のような定型フォーマット文書の処理
  • レガシーシステムのレコード更新

多くの導入実績があり、日本ではUiPathBizRobo!などが有名です。

AIエージェント

AIを活用し、PCユーザの代わりに外部ツールと連携し処理を実行するソフトウェアで、学習、適応能力を持つため、様々な状況変化にも対応可能です(Afterword1参照)。

以下のような業務に向いています。参考資料:AI時代の自動化を考察【前編】、【中編

  • SNS投稿の感情分析
  • 動的な顧客対応
  • 人間らしい文章生成
  • 非構造化データの要約と洞察抽出

クラウドAIとエッジ(ローカル)AI、どちらのAIエージェントも活用できます。

開発者のAIエージェント活用能力

AI PC普及で開発者必須能力にAIエージェント活用が加わる
AI PC普及で開発者必須能力にAIエージェント活用が加わる

AIエージェントの標準プロトコル:MCPModel Context Protocol)が、PCアプリ大規模構造変化を招くためWin12発表が遅れていると前回投稿で考察しました。

MCP登場前のアプリユーザは、人間でした。しかし、MCPにより、新しいAIエージェントが人間ユーザに加わります。アプリは、人間/AI両方対応のMCPサーバー/クライアント型へ構造が変化します(Afterword1参照)。

アプリが全てMCP対応に変われば、人間よりも超高速で膨大なデータに基づいた学習・判断もできるAIエージェントを、人間が使わないとは考えられません。

もちろん、RAG(検索拡張⽣成)などのAIハルシネーション対策は必須です。しかし、人間同士でもウソは無くなりません。どのようにAIエージェントソフトウェアを利用するかは、人間側の課題です。

MCP登場後は、開発者の必須能力の1つに上手くAIエージェントを利用できることが加わると言えます。

SummaryAIエージェントの魅力

過去の紙と鉛筆利用の開発が、現在のOfficeCADなど各種PCツール利用開発へと変わりました。将来は、新しいAIエージェント利用のPC開発へと進化します。つまり、開発者必須能力に上手くAIエージェントを活用できることが加わります。

過渡期にあるAIエージェントの習得方法は、人それぞれでしょう。言えるのは、新しいAIエージェントが、従来ツールに無い人間的魅力を持つツール(Afterword2参照)ということです。AIエージェントへ慣れていきましょう。

Afterword1:変化対応のAIエージェントソフトウェア

AIエージェント向け標準プロトコルMCPの仕組み(出典:Wikipedia)
AIエージェント向け標準プロトコルMCPの仕組み(出典:Wikipedia)

RPAのような従来ソフトウェアは、記述処理だけをそのまま処理します。不定義事象発生時は、エラー処理が起動、通常は動作停止する融通の利かない代物です。

一方、MCPアプリ対応AIエージェントクライアントソフトウェアは、色々なアプリ機能をMCPサーバーとして利用します。例えアプリに変更/修正が加わっても提供機能が不変であればそのまま使い続けます。また、様々なアプリを学習・評価し、最も適したアプリなども選べます。標準プロトコルMCPのお陰です。

Afterword2:人間的ツールAIエージェント

AIエージェントはとても人間的です。開発者だけでなく、一般PCユーザの相談や悩みのパーソナルアドバイザとしても活用可能です。初期化も容易なソフトウェアですので、過度な対人関係が不要の付き合いができます。人工知能のお陰です。


ミニAI PC 4種比較

AI PCLLMをインストールし、パーソナルAIアシスタント構築が弊社次期AI PC構想です。最新ミニPC 4種をこの構想の観点から簡単に比較しました。

AMD2つのAI CPU

AI PC向けCPUは、AMD社からRyzen AI MaxRyzen AI 3002シリーズが発売中です。本稿は2シリーズから下表のRyzen AI Max+ 395採用のGMKtec社EVO-X2とBeelink社GTR9 ProRyzen AI 9 HX 370採用のEVO-X1SER9 Proの4種を比較します。

AMD AI CPU  Cores /
Threads 
Boost2 / Base
Frequency 
Cache  Graphics Model  TDP  NPU
TOPS 
Ryzen AI Max+ 395  16C/32T Up to 5.1 / 3.0 GHz 80MB Radeon 8060S 45-120W 50 
Ryzen AI 9 HX 370  12C/24T Up to 5.1 / 2.0 GHz 24MB Radeon 890M 15-54W 50 

比較ミニPC 4

比較ミニPC 4 GMKtec 5/15参考価格  Beelink 5/15参考価格
Ryzen AI Max+ 395 
70B LLM対応
EVO-X2 $1499/64GB
$1999/128GB
GTR9 Pro   不明
Ryzen AI 9 HX 370 EVO-X1  $900/32GB
$1030/64GB
SER9 Pro $949/32GB
$1119/64GB

ミニPCは、価格変動が激しいので投稿時価格を参考掲載しました。

2月の弊社AI PC投稿では、NPU増設インタフェース:OCuLinkを持つGMKtecEVO-X1が、弊社AI PCに適すとしました。その後発売された、EVO-X2は、搭載メモリ最低量を64GBに増量、世界初の70B LLM対応機種ですが、OCuLinkはありません(EVO-X270B LLMは、投稿AI CPUとAI MCU参照)。

Beelink社のGTR9 Proは、X(旧Twitter)発表機種で70B LLM対応、未発売、詳細不明です。SER9 Proは、OCuLink無しで静音動作が特徴です。

LLMと生成AI

新しいものを生み出す能力を持つAI全体の名称が、生成AIです。人間同様、現在の生成AIには得意分野があります(関連投稿:生成AI活用スキル)。

LLM(大規模言語モデル)は、言葉、文章や会話を生成するのが得意なAIです。また、DALL-E3は、画像や絵の生成を得意とする画像生成AIです。近い将来、これら得意分野の各AIが統合し、汎用AIAGIArtificial General Intelligence)へステップアップすると筆者は思います(関連投稿:生成AI未来予測)。

人間とAI間のインタフェース役が、LLMです。クラウドAIから出力を引き出すChatGPTなどの対話AIアシスタントは、LLMがクラウドAIのフロントエンドで動作しています。

Visual Studio Code利用ローカルLLM構築

ローカルLLMは、クラウドのLLMをエッジ(端末)のローカルPCで動作させます。オフライン動作のため、AIアシスタントやビジネスデータのAI分析・解析などを端末PC上で行っても、クラウドへの情報漏洩が無いメリットがあります。

ローカルLLMAI PCCPUQualcommSnapdragon X、メモリ:16GB)構築方法は、LM Studio利用Visual Studio Code (VSC)利用2方法があります。VSC利用方法を簡単にまとめたのが下記です。

  1. VSCインストール
  2. 拡張機能AI Toolkit for VSCインストール
  3. NPU動作LLM選択
  4. チャットウインド経由でローカルLLMと日本語会話

現在、NPU動作LLMも複数あり、様々な特徴があるのが記事から判ります。

LM Studio利用ローカルLLM構築

LM Studio利用でローカルLLMを構築し、英語動作検証の結果がコチラの記事に記載されています。また、AI PCでのローカルLLM構築に注意すべき下記記載もあります。

  1. ローカルLLM活用には、PC搭載の高速メモリ量が重要
  2. LLMパラメタ数と使用メモリ量は比例
  3. LLMパラメタ数が少ないと文法ミスなどLLM出力品質低下
  4. CPU/GPU/NPUがメモリ共有結合するUMAUnified Memory ArchitectureSoCが適す

Summary:ミニAI PC 4種比較

最新ミニAI PC4種比較結果
最新ミニAI PC4種比較結果

エッジAI PCのローカルLLM活用には、CPU/GPU/NPUの大容量・高速メモリUMAがポイントです。また、OCuLinkは、UMAの点からローカルLLMに不向きな可能性が出てきました。

最新ミニAI PC 4種を比較し、価格・65W移動性重視ならSER9 Pro、性能重視ならEVO-V2、または、静音性も優れる未発売GTR9 Proが良いと結論します。

Afterword:オープンソースLLM

投稿時点のVSCNPU動作LLMパラメタ数は、7B/14B程度で、16GBメモリ量に応じた選択が必要です。また、それぞれのLLMに特徴があるので、ユーザのAI使い方により出力品質も異なります。つまり、使うオープンソースLLMAI)に個性があるようなものです。

AI PCハードウェアだけでなく、ユーザの(使い方)相性に合うオープンソースLLMAI)を探す必要もありそうです。


NPUとローカルLLM

エッジAI処理最適化NPU必要性、ローカルLLMとは、PCユーザ対処とは
エッジAI処理最適化NPU必要性、ローカルLLMとは、PCユーザ対処とは

425日、Win11 24H2向け5月「先行」更新プログラム:KB5055627がリリースされ、Recallなど多くのAI PC機能がWin11 24H2へ追加されました。Rufus 4.7で手動アップグレードした弊社Win11 24H2は、NPUが無いためこれら新しいエッジAI PC機能は使えません😢。

なぜNPUが無いとAI機能が使えないのか、大規模言語モデル:LLMとは何か、急成長するAIPCユーザはどう対処すべきか、を考察しました。

AI PC最重要ハードウェア:NPUNeural Processing Unit

AI PCと従来PCの差は、NPUハードウェアを持つか否かです。エッジAI最適設計のNPUは、高速並列処理で低消費電力なAI専用プロセサです。

筆者は、従来PCの高性能CPU/GPUでも無理やりエッジAI処理を行うことはできると思います。しかし、次章に示すLLMAIアプリの処理速度、電力消費の点でAI専用NPUが優れ、その結果、AIアプリ実行要件にNPUハードウェアを指定したと思います(PC買換え喚起の狙いもあると思いますが…)。

NPUを持つAI PCは、今後のPC使い方を大きく変えます。AI活用でPCがより使い易く、高い生産性になるからです。AIスマホ同様、一度でもAI PCを使うと従来PCへは戻れないでしょう。

LLM(大規模言語モデル)

ローカルLLMは、プライバシー保護に優れたエッジAI PCとユーザ間インタフェースの役目
ローカルLLMは、プライバシー保護に優れたエッジAI PCとユーザ間インタフェースの役目

LLMLarge Language Modelは、大量テキストデータの学習結果から、ユーザに判り易い文章を生成するAIです。

このLLMは、既にクラウドAIの入出力インタフェースとして稼働中です。例えば、ブラウザのAI対話アシスタント:Gemini/Copilotへ、ユーザが入力した質問テキストを解析し、ユーザ自然言語で回答を出力するのもこのLLMがクラウドAIのフロントエンドにいるからです。

このLLMをエッジAI PCNPUで動作させるのが、ローカルLLMです。オフラインでもLLMが動作しますので、AIアシスタントやビジネスデータのAI分析・解析などをPC上で行っても、クラウドへの情報漏洩は防げます。

つまり、ローカルLLMは、プライバシー保護に優れたエッジAI PCとユーザ間インタフェースの役目を果たします。

最初に示したRecallなどのAI機能操作は、殆どが未だ従来のGUIベースです。これは、自然言語対応済みのAIスマホに比べ、AI PCユーザインタフェースが遅れていることを示しています。

Win11 24H2は、従来PCAI PC両方動作(=中途半端)ですので、この遅れもやむを得ません。しかし、次期AI PC専用Win12では、GUIから自然言語対応PCへと改善されるでしょう。

ローカルLLM実装例

425日、AI PCNPUへローカルLLMをインストールするとどう変わるか、RAM使用量による日本語対応などが判る記事がインプレスに掲載されました。ごく簡単に要約すると、

  • ローカルLLMAnythingLLMアプリをAI PCへインストールすると、日本語テキストでAI PC情報を入出力できる。
  • 使用RAM 4GB6.5GBで比較すると、使用量が多いほど正確な日本語対話になる。

上記のLLMは、3B/8Bで、関連投稿で示したAIアプリ開発用ミニPC70B LLM700億パラメータの大規模言語モデル)に比べると小規模です。一般ユーザのAI PCなら、記事3B/8B程度のLLMでも役立ちそうです。

上記投稿Afterwordに示したようにLLMを効果的に使うには、高速大容量RAMBetterです。AI PC専用Win12は、できだけ大容量のDDR5 RAMを実装したいです。

AI PCへローカルLLMをインストールすると、クラウド情報漏れを気にせず、GUIに代わる自然言語でAI機能やPCサポートが得られます。但し、クラウドAIに比べるとローカルAIは当然非力ですから、ユーザはこの点を考慮・工夫して利用すべきです。

AI PCNPU能力に適したエッジAIアプリは、今後増えます(一例が次章)。ローカルとクラウド両方のAIを、必要に応じて使い分けるPC環境が整いつつあります。

Windows自動化AIエージェント:computer use

415日、Microsoftは、Windows操作を自動化するAIエージェント「computer use」を発表とキーマンズネット記事が掲載しました。

従来のWin自動化ツールとの違いは、対象アプリや利用サイトに変更が生じた場合でも、エッジAI推論により変更に自動対応できることです。市場調査とその洞察、請求書処理などをこのAIエージェント任せにできるそうです。5月19日開催Microsoft Buildで詳細発表が予定されています。

AIエージェントに任せた出力結果は、ユーザによる最終確認が必須です。しかし、自動化AIエージェントでPC生産性は上がります。AI PC普及に合わせ、このようなエッジAI活用アプリは急増します。

SummaryNPUとローカルLLM

ローカルAIとクラウドAIを使い分ける能力がPCユーザに必要
ローカルAIとクラウドAIを使い分ける能力がPCユーザに必要

AI処理専用ハードウェア:NPUは、AIアプリ高速処理と低消費電力の両方を満たすためエッジAI PCに必須です。NPU活用のAIは、従来PCの使い方を大きく変え、より使い易く、より高い生産性をユーザへもたらします。

例えば、クラウドAI稼働中のLLMをエッジAI PCへインストールすると、プライバシー保護に優れるローカルLLMを構築でき、従来GUIに代わる自然言語でAI PCが簡単に使えるようになります。

エッジのローカルAIとクラウドAIの利用環境が整ってきました。ユーザは、ローカル/クラウドAIを使い分ける能力も必要になります。

Afterword:筆者希望AIエージェントアプリ

  1. Chrome/Edge/Firefox自動更新
  2. 複数メールアカウント巡回と迷惑メール自動削除
  3. MCU/AI PCなど関心トピックの自動収集・分析

上記AIエージェント(アシスタント)処理を希望します。これでPC作業効率や生産性は確実に上がります。全ユーザ要求に対応するクラウドAI汎用性は、エッジAI PCには不要です。これらAIエージェントアプリだけなら、小規模LLM、少ないRAMAI PCでも処理できるハズです。AIアプリを自作すれば、なお良いのですがね…😓。