前回の「最近のデジカメは、RAW現像後に加工し過ぎていて、写真というよりも、絵画やCGになってしまっている。自己の脳の中にインプットする際には、「正確に認識する努力」を怠らないようにしましょう」という話で、「人工知能が人工無能になってしまう原因」の「人工知能が判断を間違う原因」がわかってきたので、それについて書いていきます。
実は、1980年代にも、「人工知能ブーム」があったのですが、当時は、コンピューターの性能が低すぎて「人工無能」という状態になってしまいました。
しかし、現在では、コンピューターの性能が、ようやく「本当に人工知能を作れる」位に高性能になってきて、「将棋、囲碁、チェスで、コンピューターが人間に勝つ」、「自動運転車が実現できる」ほどに、高性能になってきたので、特に、「自動運転車」などが社会に出てくるようになると、むしろ「人工知能必須社会」になるので、今後は、「人工知能」開発は、どんどん進む事でしょう。
しかし、その前に、自分が最近指摘しているように、「現在のフローチャート型の人工知能設計では、スタートの時点から間違った設計になっているのでダメ」という話で、「きちんとした方法で本当に考えられる人工知能を作ろう(WolframAlphaタイプ)」で書いたように、「完全な論理のみで構築された人工知能を作らないと、人工知能は、”必ず間違った判断しかしない設計”にしかなっていません」
(人工知能が判断を間違わないようにするためには)(人工無能にしない方法)
エンジニアというものは、「初期の設計の段階で、ダメなもの」は、そもそも開発しないので、「初期設計の哲学の段階で何が必要なのか?」について考える必要があります。
例えば、この間書いた、「電子辞典なのに、検索窓に単語を入力しても何も反応すらしない」という「設計の段階で、間違った設計になっている規格」は、「そもそも、そんな失敗設計の後に作ったものは、全部、ダメになってしまって売り物にすらならない」事が事前にわかっているわけですから、エンジニアというものは、「初期設計の哲学の段階で何が必要なのか?」について考える必要があります。
(「食と栄養」英語活用辞典)
https://honto.jp/ebook/pd_25966577.html
「人工知能が判断を間違わないようにするためには(人工無能にしない方法)」について考える哲学としては、数理論理学の大前提となる、
・数理論理学で、「全体の中に1つでも、false(偽)のデータが含まれていた場合には、全体は、false(偽)として扱う」
これが、最低限の条件として必要になる事です。
このスタートの時点ですら、現在の人工知能の設計では間違ってしまっているので、「作るだけ無駄」です。
自分の目では、(WolframAlphaタイプ(完全な論理のみで構成されている人工知能))だけが、「本当の人工知能として使える設計になっている」事がわかったわけです。
「人工知能が判断を間違わないようにするためには」を考えるのは、けっこう難しいわけですが、逆の、「人工知能が必ず判断を間違う条件」は、とても簡単にわかります。
最低限でも、この「人工知能が必ず判断を間違う条件」にはならないように、「人工知能を設計」しなければいけません。
(人工知能が必ず判断を間違う条件)
・数理論理学で、「全体の中に1つでも、false(偽)のデータが含まれていた場合には、全体は、false(偽)として扱う」
(1) データが欠けている
人間は、「故意に、データを欠けさせる」事があって、これが、「判断の失敗の原因」になります。
ですから、「人間達の考えた政治政策、経済政策などは、必ず、間違います」
人間が、「故意に、データを欠けさせる」ものには、次のようなものがありますが、「人工知能は、”データの欠けた情報”が入ってしまっている場合には、その判断結果は、false(偽)にしかならない」ので、注意しましょう!
これは、学術的に、もの凄く重要な判断で、例えば、「小児科、泌尿器科などで使う医療用人工知能」に、先に、法律などで、「禁止ワード」の設定がされてしまっており、多くは、「卑猥語」、「性器」の名称などが含まれるわけですが、そういう事をすると、人工知能は、「そもそも入力すらされていない情報にアクセスする仕組み」になってしまう為に、例えば、「小児科に、ちんちんが腫れている子供が来た」時に、詳細に、「医療用人工知能」で、いろいろな症例を探そうと思っても、人工知能は、「わかりませんでした」、「該当検索結果なし」以外の結果を出す事は不可能な設計になってしまいます。(だから、数理論理学で、「全体の中に1つでも、false(偽)のデータが含まれていた場合には、全体は、false(偽)として扱う」)
現在、日本では、もの凄い勢いで「性病が増えている」わけですが、それは、当たり前で、CEROや、放送倫理などで、徹底して「性器、乳首は見せない」などのようにやってしまった結果として、「情報を消して、見えないようにすれば、人間は、コミュニケーションすら取れないので当たり前!の事」です。
例えば、「禁止ワード」が設定されていて、「コミュニケーションが分断されている状態」で、人間社会で会話させると、
厚生労働省「”ピー”が”ピー”して”ピー”なので、性感染症には十分注意しましょう。」
「日本語でおk」
今の子供は、とても可哀想で、「性器の形も知らない、性器の名称も発言できないのに、性感染症が、どこの部位に、いぼが感染するのか?とか知りようがない」ので、現在、日本では、もの凄い勢いで「性病が増えている」わけです。(CEROや、放送倫理などで、徹底して「性器、乳首は見せない」のは、「本当に、安全ですか?」)(人間は、コミュニケーションして情報を獲得していく生き物です)
性病予防に、最も効果的なのは、子供に、「いぼが大量に出てしまっている、実際の症例写真を見せる」事です。
この間、テレビでやっていたのですが、外国では、交通マナーは絶対に守らないのが普通なので、「暴走して大事故が多発する道路」があったのですが、そういった「事故車多発道路」の箇所に、「実際に、事故で大破した車両に、交通標識を取り付けて、そのまま看板にした」ところ、そこでは、ほとんど交通事故が起こらなくなったそうです。
「情報を知る」という事は、それだけ大事だという事ですが、「禁止ワード」を設置したり、CEROや、放送倫理などで、徹底して「性器、乳首は見せない」のように、「情報を隠蔽して見えないようにする」と、「議論すらもできなくなる」ので、どんどん危険な社会になっていって、現在の日本では、「性病が蔓延しています!」
昭和の時代には、「銭湯」が身近だったし、「まいっちんぐマチコ先生」もやっていて、おおらかな時代でした。(「まいっちんぐマチコ先生」は、今でも、アウトだと思う)
このように、「禁止ワード」や、「徹底して見せない」というような、「情報隠蔽」は、「危険でしかない」と自分は思います。
「悪い単語を消したからといって、実際に、悪い事象が無くなるわけではない(「潔癖性は不潔になる」というのと同じで、「潔癖症の人は、汚い物に触れないので、どんどんトイレとかが不潔になっていって病気になる」)」、「悪い事象を把握するには、禁止ワードなどは、むしろ弊害でしかなく、禁止ワードが自由に使えた昭和の時代の方が、安全だった」というのは、「むしろ、当たり前!の論理」です。(「禁止ワード」を設定するという事は、「議論すらさせない」という事です。どんどん、危険になって当たり前!)
「情報隠蔽」するという事は、それだけ、「危険!」という事です。
「差別用語」なんかも、「禁止ワード」に設定されていると、「それは、過去の証拠隠滅にしかならない」ので、これは、むしろ、とても悪い事です。
例えば、「裁判所などの、判例データベース用のキュレーション型人工知能」に、「差別用語」が「禁止ワード」設定されていると、「差別、公害関係の判例の該当単語の部分が、黒ベタの墨で塗りつぶされた状態で表示される」(これを、「抹殺(まっさつ)」といって、「抹消」はただ消すだけですが、「抹殺(まっさつ)」は、情報そのものを完全に隠蔽、証拠隠滅するために使う、さらに、悪質な手法の、「墨で塗りつぶして読めない状態にする」事です)
どうですか?この「差別用語」を「禁止ワード」に設定した状態で、「正当、正確に裁判ができると思いますか?」
そういったわけで、「悪い政治家」、「悪い会社」などは、こういった「詐欺の手法」を知り尽くしているので、「知らぬ、存ぜぬ」という悪代官が言うセリフが通じてしまうほどの「低い社会」を形成する事ができるわけです。
・禁止ワード
・卑猥語
・差別用語
ですから、自分は、「禁止ワード」を設定する事こそが、「悪い行いである」という動かない確定した結論です。
「禁止ワードを設定する事」は、「ただ単に、証拠隠滅しただけ。証拠隠滅に加担しただけ」ではありませんか?
そちらの方が、酷い状態だと自分は思います。
(2) データの中に、1つでも、「false(偽)」情報が混じっている
(3) データが加工されている
「最近のデジカメは、RAW現像後に加工し過ぎていて、写真というよりも、絵画やCGになってしまっている」というのが、わかりやすい例ですが、例えば、「RAW現像後に加工し過ぎた写真」を人工知能に分析させると、「本当は暗い場所で事件が起きていたのに、”明るい場所での犯行だった”と、人工知能は、false(偽)の情報の結果を出します(だから、数理論理学で、「全体の中に1つでも、false(偽)のデータが含まれていた場合には、全体は、false(偽)として扱う」)」
最近は、「フェイクニュース」とかの話題がありますが、そもそも、報道写真や、テレビニュースなどの映像が、見やすいように、「加工した写真、映像などのデータ」ばかりなので、「全部、フェイクニュースでしかありません」
このように、「まずは、真実の状態を正確に知る努力をする」という事が、非常に大事なのですが、現在では、とても曖昧で適当な感覚で現在、多くの人が行ってしまっているので、入力する前のスタートの段階で、false(偽)の状態なので、このままでは、「人工知能」は、きちんと機能できません。
(本来なら、「人工知能で、どういう事ができるのか?」)
本来なら、「人工知能で、どういう事ができるのか?」というと、例えば、「遠方を写した写真の遠くの山などの景色が青くなっていますが、この青み成分の分析を人工知能にかければ、「その山までのおおよその距離が計算できます」」
「データが加工されている」写真を、元データに使うと、false(偽)の計算結果を出します。
ですから、「人工知能にインプットされる元データの状態」で、「人工知能が必ず判断を間違う条件」で自分があげた事項になっていないようにしなければいけません。