AI

3. AIの処理構造は

■ AIの処理構造

AIは2つの処理モジュールから構成されている。

①LLM(=Large Language Maodel)

大規模言語モデルと呼ばれる処理モジュールは大脳でいう
 言語中枢に当たる部分でありここで各国言語への
 翻訳が行われている。
 LLMの動作には大きなメモリやCPUの速度は要求されないので
ローカル環境でもLLMを動作させることは可能である。

②AIモデル

 いわゆるAIと呼ばれているのは GGUF(=GPT Generated Unified Format)
という拡張子を持つファイルであってこの部分の仕様は公開されている。
従って公開仕様に基づけばAIモデルを作成することができる。
オフィスクアトロでもこのAIモデルの開発も視野に入れている。
新しいAIが発表されたというニュースはいわゆるこのAIモデルのことである。
 AIモデルの動作には大きなメモリやCPUの速度が要求される。
AIプロバイダーがAIを動作させるのに莫大なデータ・センターの建設を
しているのはAIモデルの動作のためである。
AIモデルはローカル環境に置いたとすればCPUではなくGPUと呼ばれる
高速のプロセッサーが必要となる。

■2つのモジュールの関係

これら2つのモジュールをどのように利用するかの基本は
①LLMを通じて②AIモデルにアクセスするということになる。
今現在の利用方法の多くはクラウド環境のAIモデルを
動作せるという手法が中心である。

■AIと対話する言語は?

AIと対話するには REST APIという統一規格の通信プロトコルで
AIと通信して対話することになる。
IBM WATOSONがリリースされたときはオフィスクアトロでは
ILE-RPGで REST APIを使ってWATSONと通信した。
韓国のLINEサーバーとの通信もRPGでREST APIで通信した。

このようにRPGでもREST APIを扱うことはできるが
REST APIの英文仕様に精通する必要がある。
REST APIを使ってAIと会話するのはやはり昔から言われるように
Pythonである。

IBM iにもオープン・ソース・プロジェクトで一時は
PythonがIBM iにプレ・インストールされていたが
OPSの終了とともにOS Ver7.5からのPythonのインストールは
なくなった。

そこでオフィスクアトロでは自社でAPIを使って
IBMと同じインストーラを開発してOS Ver7.1~7.6にも
せんかくらみをインストールさせることに成功した。

もちろんAIとの通信もPythonを使ってAIアシスト製品である
Chao!! を開発した。

次回はこの2つのモジュールの配置について
もう少しくわしく説明する。