IoT、ブロックチェーン、AI。ビッグデータを活用したDXとは?

IoT、ブロックチェーン、AI。一見、無関係にもみえるこれらの概念は、実は、「ビッグデータを活用したDX」という文脈で相互補完的な役割を果たしています。中でもブロックチェーンは、特に不可欠な存在です。どういうことか?初心者向けに解説します!

IoT、ブロックチェーン、AIとは、それぞれどのような概念か?

IoT

IoT(Internet of Things、モノのインターネット)とは、「世の中のあらゆるモノをネットワークに接続することで、さまざまな付加価値を生み出すことを目的としたITインフラストラクチャ」のことです(JRIレビュー(北野2017))。

この定義から読み取れるIoTを理解する上で重要なポイントは次の3点です。

  1. モノをインターネットに繋げる
  2. 付加価値を生み出す
  3. IT基盤(インフラストラクチャ)である

一般に、IoTと言われて思いつくのはAmazon Echoなどに代表される、センサーで自動的に電気をつけたり音声認識でエアコンをつけたりといった、いわゆるスマート家電でしょう。

スマート家電では、(1)もともと独立したモジュールであった電気やエアコンといった端末をインターネットに接続し、(2)手動で起動する手間を省いたり相互に連動することで家の快適さを上げるという付加価値を生み出しています。

しかし、こうしたスマート家電などの典型的なIoT概念で見落としがちなのが、ポイント3です。

実は、「自動的に起動する」「連動する」といったことは、あくまで個人消費者向けの小さなメリットに過ぎません。

IoTは、そうした小さな範囲にとどまる概念ではなく、「AI(人工知能)、ビッグデータなどの技術とともに利活用することで、経済活動の効率性や生産性が大きく向上すると見込まれて」おり、「さらに、高齢・人口減少社会における経済、社会保障などの面で生じる課題を解決する手段としても注目を集め」るJRIレビュー(北野2017))、(3)社会の基盤そのものを変更するような概念なのです。

ブロックチェーン

ブロックチェーンは、2008年にサトシ・ナカモトと呼ばれる謎の人物によって提唱された「ビットコイン」(暗号資産システム)の中核技術として誕生しました。

ブロックチェーンの定義には様々なものがありますが、ここでは、「取引データを適切に記録するための形式やルール。また、保存されたデータの集積(≒データベース)」として理解していただくと良いでしょう。

一般に、取引データを集積・保管し、必要に応じて取り出せるようなシステムのことを一般に「データベース」と言いますが、ブロックチェーンはデータベースの一種であり、その中でも特に、データ管理手法に関する新しい形式やルールをもった技術です。

「分散型台帳」とも訳されるブロックチェーンは、中央管理を前提としている従来のデータベースとは異なり、常に同期されており中央を介在せずデータが共有できるので参加者の立場がフラット(=非中央集権、分散型)という特徴を備えています。

分散台帳とは.jpg

従来のデータベースの特徴

  • ① 各主体がバラバラな構造のDBを持つ
  • ② それぞれのDBは独立して存在する
  • ③ 相互のデータを参照するには新規開発が必要

ブロックチェーンの特徴

  • ①’ 各主体が共通の構造のデータを参照する
  • ②’ それぞれのストレージは物理的に独立だが、Peer to Peerネットワークを介して同期されている
  • ③’ 共通のデータを持つので、相互のデータを参照するのに新規開発は不要

こうしたブロックチェーンの「非中央集権性」の恩恵としては、

  • 中央を介さないので中間手数料がない、または安い
  • フラットな関係でデータの共有が行えるので競合他社同士でもデータを融通できる
  • 改竄や喪失に対して耐性がある

ということが挙げられます。

まさにこの「非中央集権、分散型」という特徴こそ、ブロックチェーンが様々な領域で注目・活用されている理由だと言えるでしょう。

AI(人工知能)

AI(Artificial Inteligence、人工知能)とは、「人工的につくられた人間のような知能、ないしはそれをつくる技術(松尾 豊 東京大学大学院工学系研究科科 准教授)」のことで、学問的にはコンピュータサイエンスの一分野とされています。

AIは非常に概念の範囲が広く、映画『ターミネーター』シリーズのように完全に自律した人間を超越しうる存在としてのAI(「強いAI」)から、近年期待と注目を集めている「(ヒトによる操縦を必要としない)自動運転車」、果てはビジネスパーソンにおなじみのExceや電卓(「弱いAI」)まで、およそ人間の知能労働を代替する計算機(コンピュータ)とその背後にある情報処理モデル(アルゴリズム)が総じて「AI(または人工知能)」と呼ばれています。

AIの中でも、現時点で特に重要なのが「機械学習」と呼ばれる分野です。

機械学習とは、「ある仕事の能率を上げるために、コンピュータを用いてその仕事を構成するデータ(変数)を分析し、アルゴリズムをモデル化すること」で、代表的な手法にディープラーニングやランダムフォレストなどがあります。

特にディープラーニングは、これまで人間が分析しきれなかったアルゴリズムを精度高くモデル化できることから「AI(あるいは機械学習の)ブレイクスルー」と称されており、ディープラーニングを用いた強化学習モデルであるAlphaGo(アルファ碁)が、世界最強の囲碁棋士を打ち負かしたことは記憶に新しいでしょう。

現時点ではコンピュータの計算能力やデータ自体の精度、機械学習を適切に扱えるデータサイエンティストやビジネスパーソンの存在など、様々なボトルネックが存在していますが、例えば量子コンピュータの登場などによってこうした諸条件が満たされるようになると、AIが人間の知能で測り得ないレベルの知能を獲得するとされる、「シンギュラリティ(技術的特異点)」と呼ばれる新たなブレイクスルーポイントへと到達する日も近いと言われています。

IoT、ブロックチェーン、AIと、ビッグデータを活用したDXの関係

DX(デジタルトランスフォーメーション)って?

バラバラの文脈で語られることの多いIoT、ブロックチェーン、AIという3つの概念は、実は、「ビッグデータ活用を前提としたDX」というより大きな社会動向の要素として相互に関連づけることができます

ビッグデータとは、「構造化データか非構造化データかを問わず、ビジネスや研究の現場に溢れている大量のデータを意味する用語」のことです(SAS)。

また、DX(Digital Transformation、デジタルトランスフォーメーション)とは、「ITの浸透が、人々の生活をあらゆる面でより良い方向に変化させる」という概念を指します(日本デジタルトランスフォーメーション推進協会)。

さて、一般に、ビジネス文脈におけるDXは、これまでITが使われていなかった領域(いわゆる「レガシー」産業)にITを導入すること、あるいはITによる改善を行える環境を整えることによる効率化とコスト削減を意味します。

したがって、一口にDXといっても目的やアプローチは非常に幅広く、例えば、大きくは産業全体のサプライチェーンを改革するというストーリーもあれば、小さくはエンジニアの就労環境改善やインターネット環境の整備など、個社レベルの小さな改善も含まれています。

この中でも特に前者、つまり産業や社会レベルの課題解決としてのDXで求められているのが、ビッグデータの活用です。

これまで活用されてこなかった構造化データ、あるいは構造化すらされてこなかった大量のデータを分析することで、産業や社会全体の仕組みを大きく変え、効率化し、私たちの生活をより豊かにできる可能性があるのです。

そして、まさにこの文脈において重要なのが、IoT、ブロックチェーン、AIという3つの概念です。

DXにおけるビッグデータ活用の流れ

IoT、ブロックチェーン、AIの3概念は、ビッグデータ活用の大きな流れに位置付けて関連させることができます。

ビッグデータ活用の大きな流れとは、次の通りです。

  1. データを集める
  2. データを保存・管理する
  3. データを分析する
  4. データを活用する(社会実装する)

まず、ビッグデータを活用するには、そもそもデータ自体が十分に集まっている必要があります。

一見、簡単なことのように思えますが、実は、世の中には機械による処理が可能な形のデータ(構造化データ)とそうではない形のデータ(非構造化データ)、そしてデータとしてすら認識されていない情報があり、構造化されたデータは全情報のごく一部でしかありません

したがって、ビッグデータを活用してDXを実現するためには、まずデータを構造化する、あるいは自然の情報をデータ化するといった、(1)データ収集の作業が重要になります。

次に、1で集めたデータを適切に保存・管理していく必要があります。

実は、これもデータ分析を行なった経験がないと想像しにくいことですが、データ分析において、自分の思ったような形で正しくデータが揃っているということはごく稀です。

実際には、データの一部が欠損していたり、データそのものの信用が怪しかったり、異なるデータベース同士を接合する必要があったりと、いわゆる「データの前処理」という地味で根気の要る仕事が大半を占めています。

これは、そもそも現時点では、多くの産業や企業においてデータを適切に管理するための基盤が整っていないことに起因しています。

したがって、DXに向けて大量のデータを正しく活用していくためには、(2)データの保存・管理の方法が大切なのです。

続いて、あるデータベース上に保存されたデータを分析していきます。

当然のことながら、データは集めて保存しているだけでは価値がありません

付加価値を出していくためには、情報の羅列であるデータベースから、何かしらの目的を持って分析を行い、実際の業務等に反映して効率化を実現していく必要があります。

ですが、現実には、ビッグデータが重要であるということだけを鵜呑みにして「とにかくデータを集めろ」で終わっている企業も少なくありません

これは、先ほどもみたように、データを適切に取り扱える人材が不足していることにも原因がありますが、それ以上に、「データは分析して実際に役立ててナンボ」という当たり前の考え方が欠落しているからだと言わざるを得ないでしょう。

そのため、ビッグデータ活用によるDXでは、この(3)分析のフェーズを意識して全体を設計していくことが重要だと言えます。

最後に、分析の結果であるモデルに当てはめて、現実世界の施策として社会実装していきましょう。

一般に「ビッグデータ」「DX」というとこの社会実装の部分ばかりがケースとして目立ってしまいますが、実は、1〜3の流れを適切に行うことができていれば、半分はクリアしてしまったようなものです。

もちろん、実際には、理論を現実へと実装していく過程が最も困難な場合がほとんどではありますが、そうした困難の原因として、目的から正しく逆算せずに「場当たり的に」データ活用を行おうとした結果、当事者が納得するような施策にまで十分落とし込めなかったということが少なくありません。

そのため、(4)データの活用、社会実装を適切に遂行する上でも、1〜3の収集→管理→分析が大切だと言えるでしょう。

そして、これら1〜3の実現方法として大切な役割を担うのが、それぞれIoT、ブロックチェーン、AIなのです。

IoT、ブロックチェーン、AIは、DXにおける相互補完的技術とみなせる

先ほど見たビッグデータ活用によるDXの流れと、IoT、ブロックチェーン、AIの3概念は、それぞれ次のように対応させることができます。

(※下記の対応は、必ずしも現時点でそうなっているとは限らず、今後の未来における一つの形を提唱しています)

  1. データを集める → IoTによるハードウェア端末でのデータ収集
  2. データを保存・管理する → ブロックチェーンによるデータベースの統合・管理
  3. データを分析する → AI(機械学習)による大量情報の処理
  4. データを活用する(社会実装する)

まず、IoTでは、身近にあるあらゆるモノをインターネットに繋ぎます

これにより、私たちが触れる様々な情報端末を通して、私たちの日々の行動パターンをデータとして蓄積することが可能になります。

例えば、先ほど例に挙げたスマート家電でも、Amazon Echoで鈴木さんがよく再生する音楽であったり、鈴木さん本人の声の波形、声をかけるタイミング、快適と感じやすいエアコンの温度などなど、多種多様な生活データが取得されています。

こうした環境が家の中に限らず、通勤経路、電車やバス、ビル、カフェや居酒屋、学校、病院など、生活の各拠点でモノがインターネットに接続されることで、これまで活用されてこなかった大量のデータを収集することが可能になるのです。

次に、こうしてIoT端末から収集されたデータをどのように管理するか、という問題が起こります。

ここで重要な役割を果たしうるのが、ブロックチェーンの技術です。

現在の社会では数多ある企業がそれぞれの端末、フォーマット、経路でデータを取得し、さらにそれぞれ異なるデータベースでデータを管理しています。

また、各データベースでシステムのセキュリティ要件が十分に担保されているとは限りません。

これらの事情から、ビッグデータを活用する上では、次の章で後述するような「データの統合」「データの真正性」の課題にぶつかります

ブロックチェーンは、従来のデータベースで解消することに限界があったこれらの課題に対して、より実現性の高いソリューションを提供することのできる技術だと言えます。

実際に、DXという大きな文脈に限らず、個社がビジネスでデータ活用を行う上でも、ブロックチェーンの存在感は日増しに大きくなってきていると言えるでしょう(世界経済フォーラムによると2025年までに世界のGDPの10%がブロックチェーン基盤上に乗るとの試算がなされています)。

最後に、ブロックチェーン基盤上で管理・統合されたデータを処理するのがAIの役割です。

ビッグデータ、とりわけIoTで集められたデータ群は、これまでデータ分析の領域が取り扱ってきたものよりも変数が多く、モデルも複雑化します。

こうしたデータを取り扱う上では、ディープラーニングを始めとした機械学習モデルが有効です。

例えば、メーカーの大規模工場におけるDXのプロセスでは、各機械で計測されたセンサーデータをもとに、勾配ブースティングなどの機械学習モデルによる「異常検知」(機械の誤作動による不良品生産等のミスが起こる確率と条件をモデル化)を行うことで、工場のオートメーションを推進したり、無駄なコストを省くといった改善が試みられる、といった具合です。

こうした分析は工場ライン一つ一つを具に見ていくだけではなく、全ラインを統合した形での全体分析を行う必要があり、まさに膨大な量のビッグデータを処理しなければなりません。

AI(機械学習)は、こうしたデータ分析を実現する有効な手段と言えます。

このように、IoT、ブロックチェーン、AIは、データの収集→管理→分析という一連の流れでそれぞれに長所を発揮しつつ、相互補完的な役割を果たす関連技術であると見ることができるのです。

DXでブロックチェーンが果たす重要な役割

ブロックチェーンがIoTとAIを生かしている?

上にみたデータの収集→管理→分析という一連の流れの中で、地味ながらも非常に重要な役割を果たしているのがブロックチェーンによるデータの管理です。

先にみたように、ビッグデータを活用してDXを実現するということは、ある一企業や企業内の一部門だけで完結する類のプロジェクトではなく、産官学、サプライチェーンにおける川上と川下、同業他社、生産者と消費者など、異なる立場(そして時には敵対する立場)にいる複数のプレイヤー間での協業が不可欠になってきます。

また、取り扱うデータの総量が大きくなるにつれ、関係する人の数やプロジェクトの期間も増え、オペレーションエラー等のリスクが高まっていきます。

しかし、その一方で、データ分析は非常に繊細な側面をもち、インプットするデータが少し変わるだけでアウトプットとなるモデルや仮説の精度が大きく左右されることも少なくありません

こうした前提条件のもとでは、複雑になりがちな管理をできる限りシンプルで、かつ、セキュリティ等のリスク要件を満たすような仕組みで解決できるような技術を採用する必要があります。

ブロックチェーンは、こうした従来のデータベースでは解消が難しい複数の課題を解決しうるという点で、まさにDXにビッグデータ×DXに打ってつけの技術なのです。

ブロックチェーンの役割①:セキュアなデータ統合の仕組みを提供する

ビッグデータ利用にあたっての課題の一つに「データ統合」の問題があります。

上でも述べたように、価値あるデータは単体プレイヤーに閉じたものではなく、複数の異なるステークホルダー(利害関係者)がもつデータを統合した先にあります。

ここで問題となるのが、異なるデータベース間でのデータ共有における安全性の問題です。

データベースが異なるということは、データを保存するフォーマットや構造化の方法、単位等、あらゆる要素が異なってきます。

そうした諸データを統合することはそれ自体難度が高いばかりでなく、統合の際にデータを欠損する等のオペレーションエラーを誘発する原因にもなりえます。

さらに、仮にシステム上は統合が可能であったとしても、例えば競合関係にある複数社による統合が試みられるとした場合、誰が中心となって、どこまでのデータを、どういった権限のもとに共有するかという論点が生じます。

こうした場合、各社が「もしかすると他社のいいようにやられて大切なデータまで取られるかもしれない・・」といった疑心暗鬼の状態に陥り、プロジェクト自体が頓挫してしまうケースも少なくありません。

これに対してブロックチェーンでは、そもそも中央管理者を必要としない設計思想である上に、その分散管理システムを高いセキュリティレベルで実現できます。

また、そもそもが一つのデータベースを共有する形になるため、異なるデータベース間のデータ共有問題もクリアしやすいと言えます。

実例として、国内で注目すべき取り組みが、トヨタ自動車株式会社(以下、「トヨタ」)、トヨタファイナンシャルサービス株式会社による「トヨタ・ブロックチェーン・ラボ」の試みです。

同ラボは、2019年4月、トヨタ等により「グループ横断のバーチャル組織」として立ち上げられ、「実証実験を通じたブロックチェーン技術の有用性検証やグループ各社とのグローバルな連携等、当該技術の活用に向けた取り組みを進めて」います(カギ括弧内は、TOYOTA「「トヨタ・ブロックチェーン・ラボ」、ブロックチェーン技術の活用検討と外部連携を加速化」より引用/太字は筆者)。

①「ブロックチェーン技術の活用イメージ」/②「活動の拡がりイメージ」(共にTOYOTAより)

同ラボ立ち上げの背景として、トヨタは、「モノづくりを中心に、モビリティに関わるあらゆるサービスを提供する『モビリティカンパニー』を目指しており」、「その実現に向け、グループ内外の『仲間づくり』を進める上では、商品やサービスを利用するお客様、それらを提供する様々な事業者が、『安全・安心』のもとで、より『オープン』につながることが重要」であるとしています。

そして、ブロックチェーンが「グループ内外の仲間づくりを下支えし、その結果、お客様にとってより利便性が高くカスタマイズされたサービスの提供や事業の効率化・高度化、更に既存の概念にとらわれない新たな価値創造をもたらす可能性がある」ために、ブロックチェーンによるグループ横断のヴァーチャル組織をつくったと発表しています。

(カギ括弧内は、TOYOTA「「トヨタ・ブロックチェーン・ラボ」、ブロックチェーン技術の活用検討と外部連携を加速化」より引用/太字は筆者)

トヨタによるブロックチェーンを利用した横断組織の組成という事例は、まさに、利害関係が複雑に絡み合う異なるステークホルダー間でデータ統合を行なっていくことの可能性を示していると言えるでしょう。

このように、ブロックチェーンは、「セキュアなデータ統合の仕組みを提供する」という重要な役割を果たしています。

ブロックチェーンの役割②:データの真正性を担保する

ビッグデータ利用にあたっての別の課題として、「データの真正性」の問題があげられます。

データの真正性とは、「取り扱うデータが欠損や改竄等の欠陥のない正しいものかどうか」を表す概念です。

先述したように、データ分析の精度を大きく左右するのは、実は分析そのもの以上に、データの真正性であると言われています。

なぜなら、AI(機械学習)では、データをインプットとして関数を組み、精度の高いモデルを生み出すことを目的としているため、インプットであるデータが間違っていたら、当然、結果も間違ったものができてしまうからです。

そのため、データ分析の世界においては、データ自体の真正性をなんとか担保する試みとして「データの前処理」という工程が最も重要視されています。

しかし、取り扱うデータの総量や関わる人間の数、プロジェクトの予算等が大きくなればなるほど、何かしらのヒューマンエラーであったり、悪意のある第三者によるデータ改竄の攻撃を受けやすくなります。

データの前処理では、ある程度の欠損等には対応しうるものの、データの真正性自体を正確に担保することはできません。

したがって、収集したデータを管理する時点で、改竄等のリスクを減らす仕組みを導入する必要が出てくるのです。

こうした課題に対してブロックチェーンでは、ハッシュチェーン(前後のブロックをハッシュ値と呼ばれる暗号数で結びつける考え方)にうよるデータベース生成、個々のデータ履歴自体へのセキュリティ(秘密鍵暗号方式)、コンセンサスアルゴリズムと呼ばれる合意形成のルール、といった複数の仕組みによって、高いレベルでの対改竄性を実現しています。

ブロックチェーンによるデータの真正性担保の実例としてあげられるのが、「メディカルチェーン」です。

これは、かれこれ20年ほど叫ばれ続けていた医療のデジタル化、特に電子カルテを始めとする院内データの共通化の問題を、ブロックチェーンで巧みに解決しようという試みです。

医療データは、個人情報の中でも特に秘匿性が高く、セキュリティ要件が最も高く求められます。

そして、医療機関ごとのデータ保存形式も異なるため、それらを共有していくハードルは非常に高いものになります。

メディカルチェーンでは、この問題に対して、各医療機関のデータを一つのブロックチェーン基盤上に乗せることを目指しています。

また、ビジネスモデルとしては、トークンエコノミーを採用し、トークンからの収益と医療機関からの収益を主治医や患者に還元することで、この仕組みがうまく回るように設計されています。

この事例は、ブロックチェーンが、医療情報という非常にセンシティブな情報を取り扱う基盤として信用・期待されていることを示す好例でしょう。

このように、ブロックチェーンは、「データの真正性を担保する」という重要な役割を果たしています。