AI strategy

生成AIができないことを知ると成功例の理由がわかり、未来はノーベル物理学賞の「AIの父」に教えてもらう話

2024年10月19日

この記事は、ChatGPTなど生成AIへの接し方について3つの観点で解説しています。
ちょっと長いですが、AIの扱いで悩み迷っている人は是非ご覧になってください。

最初に「成功例」として、早くからChatGPTを使い始めた自治体:横須賀市役所の話。
二番目に「失敗例」として生成AIに頼り切る儲け話(アプリ等)に飛びつくも稼げない原理的な理由
三番目に、2024年のノーベル物理学賞を受賞したGeoffrey Hinton博士(以下ヒントン博士)が昔から警告している話。

3つの話は相互に関係しています。

横須賀市をとり上げてるのは、ChatGPTの力を引き出すためにとても「良い目の付け所」があるからです。

「生成AIで稼げますよ!」を謳い文句にする巷のツール(アプリ)で気を付けないといけないのは、
生成AIのアウトプットに頼り、自分ではほとんど何もしないで済むような印象・錯覚を与え、
それを鵜呑みにしてしまうことです。

生成AIの使い道を本質的に誤っているため今後も稼げません。
だから言葉に踊らされて買うと後悔すると思います。
「AIで稼げますツール」発想は実は横須賀市の使い方とは真逆なのです。

それどころか「AIで稼げますツール」の販売者やそれを担ぐアフィリエイターは
結局は無責任という烙印を押されていくでしょう。
AIが何者かを理解せず、自分でもそれでは稼げないことをわかって煽っているからです。
(成果に結びつくまで試したことのないアイデア商品の類ばかりでしょう)

ヒントン博士は「AIの父」と呼ばれていて、AI研究や開発している人であれば
最低でもどこかで聞いたことがあるはずの、そもそもの生みの親。

ヒントン博士はAIを生み出した最初から「警告」をしてきました。
横須賀市の良い着眼点も、将来どこかで「良かった」とは言えない事態に急変するかもしれません。

そこらへんのAI技術者の話ではなく、なにしろノーベル賞の受賞者である「AIの父」が
AIを生み出すときから「警告」しているので耳を傾ける価値があると思います。
ヒントン博士が声高に叫ぶAIの危険性についてもあらためて整理してみたいと思います。

因みに私KENBOは、AIシステム開発の現場に長く関わっている技術者兼営業マンでもあり、
一般の方よりほんの少しだけ詳しくAI技術全般、業界のことを理解し語れる立ち位置にいます。

ときどき学生向け、或いは企業向け新入社員研修などでAIの講義もしています。

例えば、「なぜChatGPTはあんなに素早く答えを出せるのか?」
という問いに対して、

"N次元(例として1024次元)のエンベディングベクトル空間において、
ある言葉と関係性の強い言葉は近く、関係性が薄い言葉は遠くに配置されているから”
という説明を聞いて、なるほどと頷ける人はAIアルゴリズムまで理解できる人です。

人は3次元までなら直観的になんとなくでも理解できそうですが、
5次元、6次元となるとただただ「???」
1024次元となると想像すら止めてしまうものです。

数学で扱う多次元空間の話になります。

エンベディングベクトル空間を扱う技術は、Google検索エンジンにも、
YouTubeにも使われているのですが、一般向けに話したところで眠くなるばかりで
関心をもってもらえないのが当然でしょう。

ただこの手のややこしい話の中に、実はChatGPTにしろ
何ができて何ができないのかを分ける境界線が潜んでいるのです。

前置きが長くなりましたが、AIに少しでも関心がある方、
ことにネットで「AI」をうまく使って稼ぎたいと真剣に考えている方
最後までお目通しいただければ幸いです。

AIについて誤った認識のまま歩き続け、疲弊し、諦めるという姿をイヤというほど見聞きしてきました。
わけもわからずAIという用語に振り回されるのは、もう終わりにしましょう。

横須賀市役所の生成AI取組みが成功といえるワケ

神奈川県横須賀市のChatGPT取組みは、私が関わっているAIシステムの開発チームでも
2023年くらいから結構話題になっていました。

地方自治体が民間企業以上に生成AIを使うことにガチでマジになってる、
という状況そのものに、意外性と興味深い何かがありますよね?

なんだ、なんだ、役所がずいぶん思い切った行動に出たな~
とチーム全員興味深々でした。

少子高齢化社会においてこれからも地方公務員の減少は避けられない、
という認識と危機感をもとによほど有能な誰かがリーダーシップを発揮したに違いありません。

役所という所は定型的な決まり事がやたら多いのを、社会人であれば容易に想像できるはずです。

すなわち役所仕事には、
定型的な文書作成
がやたら多いということを意味します。

役所で為すべき機能を全うするには、
漏れも余計な情報もないキッチリした文書を作る必要があって、
各部署のそれぞれの人のスキルと人数に依存してきたわけです。

簡単そうですが思う以上に難題です。

アンケートのフォームを作るにしても
その時求められるニーズに合わせてあーでもないこーでもないと考え、
それも不慣れな人たちがやたら時間を使って議論しながら作る。

正直、こんな無駄は止めて欲しいです。
自分たちの税金をもっと有効に使って欲しいと思いませんか?

ところが、ChatGPTは定型的な文書作成は得意中の得意です。

ここに目を付けたところがえらい!
つまりChatGPTの最も得意とすることを、人が面倒くさいと思う仕事に割り当てたのです。

子供を担当する部署では、ChatGPTを高校生が理解できる文に直させる。
税務を担当する部署では目的達成するエクセルの関数をChatGPTに依頼し作らせる。
消防署では慣れない文書作成を肩代わりさせる、とか。

最後の消防署の件では、そこで働いている方には緊急的に発生する本来の仕事に
是非集中して欲しく、事務的な雑務に邪魔されないよう願っております。

文書作成なんぞで時間を取られるなら本末転倒です。
そんなことに時間取られるより一人でも助けられる命に関わって欲しい、
消防署員は目の前のやるべきことに集中して欲しい。
やるべきことは文章作成に時間を費やすことではありません。

そう思わずにいられません。

手続きなんかで必要なややこしい文書作成こそ
消防署員でない事務処理の得意な誰か、つまりAI(ChatGPT)にやらせれば良い話です。

その点に気づき、ならばと実行するにも今度は役所のさまざまな縛りから大変だったと想像できます。
しかしそれを打破し行動に移したことに敬意を覚えます。

さらに横須賀市の判断が素晴らしいのは、noteのCXO(最高体験責任者)である
深津貴之氏をアドバイザーに迎えていることです。

私も以下の「AI Assist Affiliate」にていわゆる深津プロンプトを採用、推薦しています。

AIアシストアフィリエイト
AI アシストアフィリエイト

物販アフィリ/情報(インフォ系)アフィリの両方にChatGPTを正しく活用して成果を出す教材【AIアシストアフィリエイト】の紹介

ai-asst-aff.com

深津貴之氏は、ChatGPTの使い手としてトップレベルの方です。

なにより、わかりやすい、シンプルなプロンプトの方程式に特徴があります。
よってChatGPTがわかりやすく必要なことを答えてくれやすいのです。
私自身いろいろとプロンプト方程式を試してみた中で、
深津プロンプトが一番ストレス感じることなく、目的に速く到達できるのに感激しました。

プロンプトに冗長性が多いと、ChatGPTの返事もイマイチになりがちです。
「使えないなぁ」と感じる原因のほとんどは、聞き方が良くないせいです。

横須賀市は「生成AI開国の地」を名乗っており、全国の自治体が勉強に直参しています。
2023年4月時点ですでに80以上の自治体から問い合わせがあったほどです。

生成AI開国の地かぁ~その気合の入り方に脱帽です!

自治体によるChatGPTの利用は私は全面的に大賛成です。
個人情報などセキュリティ面でしっかり押さえた専用ChatGPTを構築しておけば
市民に不安を感じさせず運用可能ですし。

何より民間企業から見ると、役所仕事は無駄の塊のようでもあり、
その無駄を削り取って、市民生活に有意意義な還元をして欲しいと願います。

こちらのnoteでの自治体AI活用マガジンに事例がたくさん載っているので、
是非ご覧になってください。

自治体AI活用マガジン
自治体AI活用マガジン

govgov.ai

ここまでよろしいでしょうか?

何を言いたいかというと、自治体こそChatGPTを真っ先に最大限に活用すべき場であり、
その理由は役所で必要とする定型的な文書作りに関わる人の労力、時間を解放し、
ChatGPTが最も得意する力で代替できるからです。

これによって少なくとも市民の税金を有効活用できる余地が生まれます。

ChatGPTの能力を発揮させるために、役所以上にマッチした職場が
正直なところ思い浮かばないほどです。

こういうことを言うと、現に役所へお勤めの方は不安になるかと思います。
ただ人が絡み人がいないとどうにもならない仕事はいつの時代でも、どんな職場でも残るものですし、
人ならでは、という仕事をクリエイティブに生み出して欲しいものです。

生成AIがゼッタイできないことを知る

先にChatGPTが最も得意な領域と、その成功例として横須賀市役所の話をしました。
今度は真逆で、ChatGPTがゼッタイにできない(=今しばらくは間違いない)ことの話。

当ブログ全般、そしてこの記事をご覧になっている方の多くは、
「ネットで何とかして稼ぎたい人」だと想定しています。

それもいかに、
楽して
簡単に
すぐに
というわがままな思いを抱いていらっしゃるかと。

だからこそ。”AIを使ったこのツール(アプリ)使えば稼げます”的な話に弱い。

つい飛びつきたくなる気持ちもわかります。

ところがこの手のツールではほぼ100%稼げません。
ほぼ、と言っているのはごく稀に見かける情報弱者か、または
情報リテラシーのある人でも誤って購入ボタンを押すかもしれないからです(笑)

”AIを使ったこのツール(アプリ)使えば稼げます”の典型例は、
ChatGPTのアウトプットをまるまるコピペ、場合によっては自動でコピペし記事を作り、
あなたは報酬が入るのを待っているだけ。

そんなことあるわけないじゃないですか。
それでもなぜか、淡い期待をもってしまう人もいるのです。

AIをあなたの上に戴き、あなたはAIの下で仕えるようなことを
売り文句にしてる商品もありますがまったくもって言語道断です。

仮にこれで報酬が生まれるとしたら、そのAIツールはあなたが使わなくても
誰でもできる話であって、要はあなた不在でOKとなります。

こういったツールは、ChatGPTのもっともらしい文章を貼り付けるだけで
お金が入ってきますよ、などと妄想でしかありませんが、
人の購買心理をまったく無視しているという共通点があります。

そもそも人が商品の販売ページやアフィリエイトページを見て購入するのは、
論理も大事ですが、つじつまがあっていれば買うわけではなく、
感情を動かすための要素が欠かせません。

生成AIが作る文章とは、言葉をエンベディングベクトル空間から拾って
整合性を保つよう並べているに過ぎません。

言い換えると、考えて作っているわけではなく、言葉をつなぎ合わせて見せているだけ。
ということを知っている人も今ではたくさんいらっしゃいます。

ただその言葉の羅列においても、自分の能力を完全に超えている・・・
そんな風にとても優秀に思えるため、AIの吐き出す言葉に過大な期待を寄せてしまいます。

では、生成AIにはゼッタイできないことがあるのですがご存知でしょうか?

それは、


問いをもつこと
なのです。

何かに疑問をもつことであり、
そうするためには自我をもつこと
とだと言ってもよいと思います。

ChatGPTプロンプトに例えば「あなたはコピーライターです」と役割を与え質問すると
「わたしは、・・・・です。」とあたかも人格をもっているかのように反応しますが、
これも言葉を選択しているだけで自我があるわけではないことに注意しましょう。

プロンプトに「なお不明点があれば聞いてください」と追加することもでき、
そうするともっともらしく質問をしてくることもありますが、
あくまで回答用の言葉選びのため追加情報を必要としているに過ぎません。

人間のように、悩みながら質問しているというのとは全然違います。

ここにAIにゼッタイできないことについて、的確に説明してくれている人がいます。

たたき上げの元朝日新聞記者であり、
今は作家・評論家・百姓・猟師・新聞記者と自称されている
近藤康太郎さんです。

文章を扱うことが仕事の人、例えばライター(LP作成も含め)やアフィリエイターにとって
彼の数々の本はバイブルになると思うほど、ずっと勉強できる貴重な宝物と言えます。
(私はすべて揃えており、線を引いたり付箋だらけにしていて重宝しています)

最新の著書である『文章は「転」。<自分の言葉で書く技術>』の中で
AIに書けない文章とはなにかを説明してくれており、
このことはAIの仕事に携わる私にとっても正鵠を得ていると実感してます。

タイトルにある「転」とは起承転結の転です。
AIには「起」と「承」は書けるが「転」は書けないという主張ですがこれがまさにその通り。

せっかくなので同書から一部引用してご紹介します。
段落、下線はKENBOの個人的見解で追加しています。

文章とは「転」である。
(中略)

起はフック、書き出しで気を引く。
承はその説明。なるべくスピーディーに、何を書こうとしているか、説明してしまう。
転は、文字通り転がす。少し話題を転じる。転が無いと単調になる。飽きるんです。
(中略)

起と承だけで終わるライターは、これからの時代、不要とされる、ということです。
こういう事象があったというだけの文章はAIが書く。
起と承で終わる文章には、値段がつかなくなったんです。

しかし、転が書けるライターには発注がくる。原理的にAIは転が書けないから。
AIは過去の膨大な蓄積データから解答を探し出します。
その正確さと速度は、とても人間の及ぶところではない。
ところが転というのは解答ではない。
ある事象に直面して、自分がどう感じ取ったか、何を考えたか、そこが転になるんです。
だから本質的に重要なのは<自分>です。
要は<生き方>です。

近藤康太郎『文章は「転」。<自分の言葉で書く技術>』より引用

この本は書くことを収入に繋げている人には必読の技術書として推します。
私も読んで、己の文章の欠陥、未熟さをたくさん発見できました。
少しだけこの記事にも勉強したことをフィードバックしておりますが修行中です。

マーケター必読
文章は、「転」。<自分の言葉>で書く技術
文章は、「転」。<自分の言葉>で書く技術

amzn.to

人の購入行動について感情を動かす必要があると先ほど述べております。
感情を動かすのが「転」にあたります。

一方、横須賀市役所の話を思い出してみてください。

役所では感情を動かす書類は不要で、必要とする情報が適切に書かれているということが重要。
言うまでもありませんよね。

だからこそ「転」を求めない役所の定型業務はChatGPTにピッタリなのです。

「AIの父」が訴えている警告

最近何より驚いたのは、2024年のノーベル賞において
物理学と化学賞の両方ともAIの研究者に送られたことでした。

それだけAIが社会に及ぼす影響が大きいということの表れかなと感じます。
事実、AIは経済、科学、軍事、政治などあらゆる局面でそのポテンシャルを発揮しています。

なぜ物理学なのに「AI」が関係するの?
と思われたかもしれませんが、コンピュータ・サイエンスも物理学の一部とみなされています。

ノーベル物理学賞を受賞したのは、John Hopfield と 冒頭に紹介したGeoffrey Hinton の二人です。
今のAIの素にあたるニューラルネットの基礎を作った功績が評価されたものです。

ヒントン博士は「AIの父」とも呼ばれてきました。

ヒントン博士は2013年から2023年までGoogleに籍を置いていた方です。
2023年にGoogleを離れ、AIの危険性について警告を発するようになりました。

ヒントン博士の弟子に、イリヤ・サツケバーという方がいます。
イリヤ・サツケバーももともとGoogleにいて、その後OpenAIに引き抜かれ
ChatGPTを生み出した張本人とも言える世界トップレベルのAI技術者です。

OpenAIのCEOだったサム・アルトマンが取締役会から解雇されるプロセスで、
イリヤ・サツケバーもAI危険性を感じ、解雇に同意したことはよく知られている話です。
(その後サム・アルトマンは復職しています)

イリヤ・サツケバーはOpenAIの共同創業者でチーフサイエンティストでしたが、
その後退社し2024年6月には、新しいAI企業を立ち上げています。

「安全な超知能」を目指すSafe Superintelligence(SSI)です。
安全な超知能を「唯一の目標かつ唯一の製品」と掲げ活動しています。

AIの世界トップレベルのエンジニアが、お花畑の可能性ではなく
それほどにAIの潜在リスクを感じていることが伺えます。

このようにChatGPTのルーツをたどるとGoogleにその技術があったことがよくわかります。
またChatGPTの提供元のOpenAIも、お家騒動の中で現在の姿があるのです。

いずれにせよ、Googleは検索エンジンのためにもAIへ巨大な投資を続けてきたのですが、
こちらの記事(↓)でも書いたように生成AIはGoogleにとって諸刃の剣でもあって初動が遅れました。

生成AIツールの吐き出したコピペでは稼げない~Googleははるか昔からその理由と空虚さを知っている - インフォレビュー(INFOREVIEW)
生成AIツールの吐き出したコピペでは稼げない~Googleははるか昔からその理由と空虚さを知っている - インフォレビュー(INFOREVIEW)

ChatGPTの能力にたまげて、このような生成AI(LLM:大規模言語モデル)を使いさぁ稼ごうぜ!という意気込みをもったツールが今やあちこち溢れてきたように思います。 生成AI使い方として、当ブログで

www.ifrv.net

「AIの危険性」に関しては、今も研究者たちの間でも意見が大きく分かれており
一致した合意があるわけではありません。

物理学受賞については、スウェーデンアカデミーが発表している以下のページに
詳細が書かれています。
こちらは一次情報であり、枝葉のついた記事ではありません。
英文ですがご興味ある方はチェックしてみてください。

The Nobel Prize in Physics 2024 - Popular science background - NobelPrize.org
The Nobel Prize in Physics 2024

The Nobel Prize in Physics 2024 was awarded jointly to John J. Hopfield and Geoffrey E. Hinton "for ...

www.nobelprize.org

せっかくなので、ヒントン博士の考えるAIの危険性について
他ならぬChatGPTに要約させてみました。

KENBO
KENBO

ヒントンの『AIの発展がもたらすリスク』とはなにかを要約してください。

ヒントンはAIの急速な発展によるリスクとして、特に以下の点を指摘しています:

  • AIが人間の知能を超える可能性があることで生じる制御の問題。
  • 自律的に行動するAIによる予測不可能な結果。
  • 社会や経済への大きな影響、特に職業の喪失や格差の拡大。
  • AIが悪意のある目的で利用されるリスク。


これらのリスクへの対応策を検討する必要が強調されています。

ChatGPT
ChatGPT

ChatGPTが要約していることはどれもが現実性を帯びています。

ChatGPT、Gemini、LLAMA、Copilot、Perplexity・・・
と今ある生成AIがこの先目標としているのはモーダル化であり、
それはAGI(汎用人工知能)に行き着きます。

モーダル化とは、テキストだけではなく音声、動画、画像、触感、味覚など
人の五感と同じような入出力と分析機能を備えることです。

AGIは、あらゆる点で完全に人間の能力を超越した汎用AIです。

なにそれ?

と思いますが、ここでにわかに気持ちがざわざわするのは、
人を超える感官を備えるだけではなく、ひょっとしたら
自我を持つ(問いをもつ)ことができるようになってるのでは?

漠然とした不安ながら、なぜそんな奇妙な思いを抱くのか?
ディープラーニング(深層学習)をベースにする昨今のAIは常に、
自分で自分を超えようとするように機能するからです。
この機能を専門的には再帰的と呼んでいます。

それはどんな世界なのか?

AIが自我をもって「暴走モード」になってしまうとどうしてもあの有名な映画が浮かんできます。
「審判の日」(Judgement Day)なんて誰も遭遇したくありませんし(笑)

ともかく想像が難しい世界です。

横須賀市の成功事例はエントリーレベルとしての生成AIを活用した話、
生成AIがゼッタイにできないこととは、現時点でのAIではという注釈付きです。

今言えることは、AIの奴隷として受け入れるのではなく、
いかにして主人でいられるか、
人間としてAIとどう接していくのか、
を考えるべきは未来ではなく、今しかないという事です。

社会全体の問題でもありますが、まずは個人レベルでしっかり考えていきましょう。
何も考えずにAIに接するということは、状況にただ流されるだけであり、
AIの奴隷として生きることを半ば宣言しているようなものです。