IoT、ブロックチェーン、AI。ビッグデータを活用したDXとは?

IoT、ブロックチェーン、AI。一見、無関係にもみえるこれらの概念は、実は、「ビッグデータを活用したDX」という文脈で相互補完的な役割を果たしています。そのなかでもブロックチェーンは、特に不可欠な存在です。今回は初心者向けにざっくりと解説します!

  1. IoT、ブロックチェーン、AIとは、それぞれどのような概念か?
  2. DX(デジタルトランスフォーメーション)って?
  3. IoT、ブロックチェーン、AIと、ビッグデータを活用したDXの関係
  4. DXでブロックチェーンが果たす重要な役割
  5. まとめ

IoT、ブロックチェーン、AIとは、それぞれどのような概念か?

IoT

出典:Pexels

IoT(Internet of Things、モノのインターネット)とは、「世の中のあらゆるモノをネットワークに接続することで、さまざまな付加価値を生み出すことを目的としたITインフラストラクチャ」のことです(JRIレビュー(北野2017))。

この定義から読み取れるIoTを理解する上で重要なポイントは次の3点です。

  1. モノをインターネットに繋げる
  2. 付加価値を生み出す
  3. IT基盤(インフラストラクチャ)である

一般に、IoTと言われて思いつくのはAmazon Echoなどに代表される、センサーで自動的に電気をつけたり音声認識でエアコンをつけたりといった、いわゆるスマート家電でしょう。

スマート家電では、(1)もともと独立したモジュールであった電気やエアコンといった端末をインターネットに接続し、(2)手動で起動する手間を省いたり相互に連動することで家の快適さを上げるという付加価値を生み出しています。

しかし、こうしたスマート家電などの典型的なIoT概念で見落としがちなのが、ポイント3です。

実は、「自動的に起動する」「連動する」といったことは、あくまで個人消費者向けの小さなメリットに過ぎません。

IoTは、そうした小さな範囲にとどまる概念ではなく、「AI(人工知能)、ビッグデータなどの技術とともに利活用することで、経済活動の効率性や生産性が大きく向上すると見込まれて」おり、「さらに、高齢・人口減少社会における経済、社会保障などの面で生じる課題を解決する手段としても注目を集め」るJRIレビュー(北野2017))、(3)社会の基盤そのものを変更するような概念なのです。

ブロックチェーン

ブロックチェーンは、2008年にサトシ・ナカモトと呼ばれる謎の人物によって提唱された「ビットコイン」(暗号資産システム)の中核技術として誕生しました。

ビットコインには、P2P(Peer to Peer)通信、Hash関数、公開鍵暗号方式など新旧様々な技術が利用されており、それらを繋ぐプラットフォームとしての役割を果たしているのがブロックチェーンです。

ブロックチェーンの定義には様々なものがありますが、噛み砕いていうと「取引データを暗号技術によってブロックという単位でまとめ、それらを1本の鎖のようにつなげることで正確な取引履歴を維持しようとする技術のこと」です。

取引データを集積・保管し、必要に応じて取り出せるようなシステムのことを一般に「データベース」と言いますが、ブロックチェーンはデータベースの一種であり、その中でも特に、データ管理手法に関する新しい形式やルールをもった技術です。

分散型台帳」とも訳されるブロックチェーンは、中央管理を前提としている従来のデータベースとは異なり、常にネットワークの参加者間で情報が同期されています。データとトランザクション(取引)が多数のノードに分散して保存されるため、一つのノードや場所に依存することなくシステムが機能します。

このように中央的な管理者を介在せずに、データが共有できるので参加者の立場がフラット(=非中央集権)であるため、「分散型台帳」と呼ばれています。

ブロックチェーンと従来のデータベースの主な違いは次の通りです。

従来のデータベースの特徴ブロックチェーンの特徴
構造 各主体がバラバラな構造のDBを持つ各主体が共通の構造のデータを参照する
DB  それぞれのDBは独立して存在し、管理会社によって信頼性が担保されているそれぞれのストレージは物理的に独立だが、Peer to Peerネットワークを介して同期されている
データ共有相互のデータを参照するには新規開発が必要共通のデータを分散して持つので、相互のデータを参照するのに新規開発は不要

こうしたブロックチェーンの「非中央集権性」によって、「データの耐改ざん性」「安価なシステム利用コスト」「ビザンチン耐性(欠陥のあるコンピュータがネットワーク上に一定数存在していてもシステム全体が正常に動き続ける)」といったメリットが実現しています。

データの安全性や安価なコストは、様々な分野でブロックチェーンが注目・活用されている理由だといえるでしょう。

詳しくは以下の記事で解説しています。

AI(人工知能)

出典:Pexels

AI(Artificial Inteligence、人工知能)とは、「人工的につくられた人間のような知能、ないしはそれをつくる技術(松尾 豊 東京大学大学院工学系研究科科 准教授)」のことで、学問的にはコンピュータサイエンスの一分野とされています。

AIは非常に概念の範囲が広く、映画『ターミネーター』シリーズのように完全に自律した人間を超越しうる存在としてのAI(「強いAI」)から、近年期待と注目を集めている「(ヒトによる操縦を必要としない)自動運転車」、果てはビジネスパーソンにおなじみのExceや電卓(「弱いAI」)まで、およそ人間の知能労働を代替する計算機(コンピュータ)とその背後にある情報処理モデル(アルゴリズム)が総じて「AI(または人工知能)」と呼ばれています。

AIの中でも、現時点で特に重要なのが「機械学習」と呼ばれる分野です。

機械学習とは、「ある仕事の能率を上げるために、コンピュータを用いてその仕事を構成するデータ(変数)を分析し、アルゴリズムをモデル化すること」で、代表的な手法にディープラーニングやランダムフォレストなどがあります。

特にディープラーニングは、これまで人間が分析しきれなかったアルゴリズムを精度高くモデル化できることから「AI(あるいは機械学習の)ブレイクスルー」と称されており、ディープラーニングを用いた強化学習モデルであるAlphaGo(アルファ碁)が、世界最強の囲碁棋士を打ち負かしたことは記憶に新しいでしょう。

現時点ではコンピュータの計算能力やデータ自体の精度、機械学習を適切に扱えるデータサイエンティストやビジネスパーソンの存在など、様々なボトルネックが存在していますが、例えば量子コンピュータの登場などによってこうした諸条件が満たされるようになると、AIが人間の知能で測り得ないレベルの知能を獲得するとされる、「シンギュラリティ(技術的特異点)」と呼ばれる新たなブレイクスルーポイントへと到達する日も近いと言われています。

DX(デジタルトランスフォーメーション)って?

出典:pixabay

バラバラの文脈で語られることの多いIoT、ブロックチェーン、AIという3つの概念は、実は、「ビッグデータ活用を前提としたDX」というより大きな社会動向の要素として相互に関連づけることができます。

ビッグデータとは、「構造化データか非構造化データかを問わず、ビジネスや研究の現場に溢れている大量のデータを意味する用語」のことです(SAS)。

また、DX(Digital Transformation、デジタルトランスフォーメーション)とは、「ITの浸透が、人々の生活をあらゆる面でより良い方向に変化させる」という概念を指します(日本デジタルトランスフォーメーション推進協会)。

さて、一般に、ビジネス文脈におけるDXは、これまでITが使われていなかった領域(いわゆる「レガシー」産業)にITを導入すること、あるいはITによる改善を行える環境を整えることによる効率化とコスト削減を意味します。

したがって、一口にDXといっても目的やアプローチは非常に幅広く、例えば、大きくは産業全体のサプライチェーンを改革するというストーリーもあれば、小さくはエンジニアの就労環境改善やインターネット環境の整備など、個社レベルの小さな改善も含まれています。

この中でも特に前者、つまり産業や社会レベルの課題解決としてのDXで求められているのが、ビッグデータの活用です。

これまで活用されてこなかった構造化データ、あるいは構造化すらされてこなかった大量のデータを分析することで、産業や社会全体の仕組みを大きく変え、効率化し、私たちの生活をより豊かにできる可能性があるのです。

そして、まさにこの文脈において重要なのが、IoT、ブロックチェーン、AIという3つの概念です。

IoT、ブロックチェーン、AIと、ビッグデータを活用したDXの関係

DXにおけるビッグデータ活用の流れ

出典:illust AC

IoT、ブロックチェーン、AIの3概念は、ビッグデータ活用の大きな流れに位置付けて関連させることができます。

ビッグデータ活用の大きな流れとは、次の通りです。

  1. データを集める
  2. データを保存・管理する
  3. データを分析する
  4. データを活用する(社会実装する)

まず、ビッグデータを活用するには、そもそもデータ自体が十分に集まっている必要があります。

一見、簡単なことのように思えますが、実は、世の中には機械による処理が可能な形のデータ(構造化データ)とそうではない形のデータ(非構造化データ)、そしてデータとしてすら認識されていない情報があり、構造化されたデータは全情報のごく一部でしかありません

したがって、ビッグデータを活用してDXを実現するためには、まずデータを構造化する、あるいは自然の情報をデータ化するといった、①データ収集の作業が重要になります。

次に、①で集めたデータを適切に保存・管理していく必要があります。

実は、これもデータ分析を行なった経験がないと想像しにくいことですが、データ分析において、自分の思ったような形で正しくデータが揃っているということはごく稀です。

実際には、データの一部が欠損していたり、データそのものの信用が怪しかったり、異なるデータベース同士を接合する必要があったりと、いわゆる「データの前処理」という地味で根気の要る仕事が大半を占めています。

これは、そもそも現時点では、多くの産業や企業においてデータを適切に管理するための基盤が整っていないことに起因しています。

したがって、DXに向けて大量のデータを正しく活用していくためには、②データの保存・管理の方法が大切なのです。

続いて、あるデータベース上に保存されたデータを分析していきます。

当然のことながら、データは集めて保存しているだけでは価値がありません

付加価値を出していくためには、情報の羅列であるデータベースから、何かしらの目的を持って分析を行い、実際の業務等に反映して効率化を実現していく必要があります。

ですが、現実には、ビッグデータが重要であるということだけを鵜呑みにして「とにかくデータを集めろ」で終わっている企業も少なくありません

これは、先ほどもみたように、データを適切に取り扱える人材が不足していることにも原因がありますが、それ以上に、「データは分析して実際に役立ててナンボ」という当たり前の考え方が欠落しているからだと言わざるを得ないでしょう。

そのため、ビッグデータ活用によるDXでは、この③分析のフェーズを意識して全体を設計していくことが重要だと言えます。

最後に、分析の結果であるモデルに当てはめて、現実世界の施策として社会実装していきましょう。

一般に「ビッグデータ」「DX」というとこの社会実装の部分ばかりがケースとして目立ってしまいますが、実は、1〜3の流れを適切に行うことができていれば、半分はクリアしてしまったようなものです。

もちろん、実際には、理論を現実へと実装していく過程が最も困難な場合がほとんどではありますが、そうした困難の原因として、目的から正しく逆算せずに「場当たり的に」データ活用を行おうとした結果、当事者が納得するような施策にまで十分落とし込めなかったということが少なくありません。

そのため、④データの活用、社会実装を適切に遂行する上でも、①〜③の収集→管理→分析が大切だと言えるでしょう。

そして、これら1〜3の実現方法として大切な役割を担うのが、それぞれIoT、ブロックチェーン、AIなのです。

IoT、ブロックチェーン、AIは、DXにおける相互補完的技術とみなせる

出典:pixabay

先ほど見たビッグデータ活用によるDXの流れと、IoT、ブロックチェーン、AIの3概念は、それぞれ次のように対応させることができます。

(※下記の対応は、必ずしも現時点でそうなっているとは限らず、今後の未来における一つの形を提唱しています)

  1. データを集める → IoTによるハードウェア端末でのデータ収集
  2. データを保存・管理する → ブロックチェーンによるデータベースの統合・管理
  3. データを分析する → AI(機械学習)による大量情報の処理
  4. データを活用する(社会実装する)

まず、IoTでは、身近にあるあらゆるモノをインターネットに繋ぎます

これにより、私たちが触れる様々な情報端末を通して、私たちの日々の行動パターンをデータとして蓄積することが可能になります。

たとえば、先ほど例に挙げたスマート家電でも、Amazon Echoで鈴木さんがよく再生する音楽であったり、鈴木さん本人の声の波形、声をかけるタイミング、快適と感じやすいエアコンの温度などなど、多種多様な生活データが取得されています。

こうした環境が家の中に限らず、通勤経路、電車やバス、ビル、カフェや居酒屋、学校、病院など、生活の各拠点でモノがインターネットに接続されることで、これまで活用されてこなかった大量のデータを収集することが可能になるのです。

次に、こうしてIoT端末から収集されたデータをどのように管理するか、という問題が起こります。

ここで重要な役割を果たしうるのが、ブロックチェーンの技術です。

現在の社会では数多ある企業がそれぞれの端末、フォーマット、経路でデータを取得し、さらにそれぞれ異なるデータベースでデータを管理しています。

また、各データベースでシステムのセキュリティ要件が十分に担保されているとは限りません。

これらの事情から、ビッグデータを活用する上では、次の章で後述するような「データの統合」「データの真正性」の課題にぶつかります

ブロックチェーンは、従来のデータベースで解消することに限界があったこれらの課題に対して、より実現性の高いソリューションを提供することのできる技術だと言えます。

実際に、DXという大きな文脈に限らず、個社がビジネスでデータ活用を行う上でも、ブロックチェーンの存在感は日増しに大きくなってきていると言えるでしょう(世界経済フォーラムによると2025年までに世界のGDPの10%がブロックチェーン基盤上に乗るとの試算がなされています)。

最後に、ブロックチェーン基盤上で管理・統合されたデータを処理するのがAIの役割です。

ビッグデータ、とりわけIoTで集められたデータ群は、これまでデータ分析の領域が取り扱ってきたものよりも変数が多く、モデルも複雑化します。

こうしたデータを取り扱う上では、ディープラーニングを始めとした機械学習モデルが有効です。

例えば、メーカーの大規模工場におけるDXのプロセスでは、各機械で計測されたセンサーデータをもとに、勾配ブースティングなどの機械学習モデルによる「異常検知」(機械の誤作動による不良品生産等のミスが起こる確率と条件をモデル化)を行うことで、工場のオートメーションを推進したり、無駄なコストを省くといった改善が試みられる、といった具合です。

こうした分析は工場ライン一つ一つを具に見ていくだけではなく、全ラインを統合した形での全体分析を行う必要があり、まさに膨大な量のビッグデータを処理しなければなりません。

AI(機械学習)は、こうしたデータ分析を実現する有効な手段と言えます。

このように、IoT、ブロックチェーン、AIは、データの収集→管理→分析という一連の流れでそれぞれに長所を発揮しつつ、相互補完的な役割を果たす関連技術であると見ることができるのです。

DXでブロックチェーンが果たす重要な役割

ブロックチェーンがIoTとAIを生かしている?

出典:pixabay

上にみたデータの収集→管理→分析という一連の流れの中で、地味ながらも非常に重要な役割を果たしているのがブロックチェーンによるデータの管理です。

先にみたように、ビッグデータを活用してDXを実現するということは、ある一企業や企業内の一部門だけで完結する類のプロジェクトではなく、産官学、サプライチェーンにおける川上と川下、同業他社、生産者と消費者など、異なる立場(そして時には敵対する立場)にいる複数のプレイヤー間での協業が不可欠になってきます。

また、取り扱うデータの総量が大きくなるにつれ、関係する人の数やプロジェクトの期間も増え、オペレーションエラー等のリスクが高まっていきます。

しかし、その一方で、データ分析は非常に繊細な側面をもち、インプットするデータが少し変わるだけでアウトプットとなるモデルや仮説の精度が大きく左右されることも少なくありません

こうした前提条件のもとでは、複雑になりがちな管理をできる限りシンプルで、かつ、セキュリティ等のリスク要件を満たすような仕組みで解決できるような技術を採用する必要があります。

ブロックチェーンは、こうした従来のデータベースでは解消が難しい複数の課題を解決しうるという点で、まさにDXにビッグデータ×DXに打ってつけの技術なのです。

ブロックチェーンの役割①:セキュアなデータ統合の仕組みを提供する

ビッグデータ利用にあたっての課題の一つに「データ統合」の問題があります。

上でも述べたように、価値あるデータは単体プレイヤーに閉じたものではなく、複数の異なるステークホルダー(利害関係者)がもつデータを統合した先にあります。

ここで問題となるのが、異なるデータベース間でのデータ共有における安全性の問題です。

データベースが異なるということは、データを保存するフォーマットや構造化の方法、単位等、あらゆる要素が異なってきます。

そうした諸データを統合することはそれ自体難度が高いばかりでなく、統合の際にデータを欠損する等のオペレーションエラーを誘発する原因にもなりえます。

さらに、仮にシステム上は統合が可能であったとしても、例えば競合関係にある複数社による統合が試みられるとした場合、誰が中心となって、どこまでのデータを、どういった権限のもとに共有するかという論点が生じます。

こうした場合、各社が「もしかすると他社のいいようにやられて大切なデータまで取られるかもしれない・・」といった疑心暗鬼の状態に陥り、プロジェクト自体が頓挫してしまうケースも少なくありません。

これに対してブロックチェーンでは、そもそも中央管理者を必要としない設計思想である上に、その分散管理システムを高いセキュリティレベルで実現できます。

また、そもそもが一つのデータベースを共有する形になるため、異なるデータベース間のデータ共有問題もクリアしやすいと言えます。

実例として、国内で注目すべき取り組みが、トヨタ自動車株式会社(以下、「トヨタ」)、トヨタファイナンシャルサービス株式会社による「トヨタ・ブロックチェーン・ラボ」の試みです。

同ラボは、2019年4月、トヨタ等により「グループ横断のバーチャル組織」として立ち上げられ、「実証実験を通じたブロックチェーン技術の有用性検証やグループ各社とのグローバルな連携等、当該技術の活用に向けた取り組みを進めて」います(カギ括弧内は、TOYOTA「「トヨタ・ブロックチェーン・ラボ」、ブロックチェーン技術の活用検討と外部連携を加速化」より引用/太字は筆者)。

①「ブロックチェーン技術の活用イメージ」/②「活動の拡がりイメージ」(共にTOYOTAより)

同ラボ立ち上げの背景として、トヨタは、「モノづくりを中心に、モビリティに関わるあらゆるサービスを提供する『モビリティカンパニー』を目指しており」、「その実現に向け、グループ内外の『仲間づくり』を進める上では、商品やサービスを利用するお客様、それらを提供する様々な事業者が、『安全・安心』のもとで、より『オープン』につながることが重要」であるとしています。

そして、ブロックチェーンが「グループ内外の仲間づくりを下支えし、その結果、お客様にとってより利便性が高くカスタマイズされたサービスの提供や事業の効率化・高度化、更に既存の概念にとらわれない新たな価値創造をもたらす可能性がある」ために、ブロックチェーンによるグループ横断のヴァーチャル組織をつくったと発表しています。

(カギ括弧内は、TOYOTA「「トヨタ・ブロックチェーン・ラボ」、ブロックチェーン技術の活用検討と外部連携を加速化」より引用/太字は筆者)

トヨタによるブロックチェーンを利用した横断組織の組成という事例は、まさに、利害関係が複雑に絡み合う異なるステークホルダー間でデータ統合を行なっていくことの可能性を示していると言えるでしょう。

このように、ブロックチェーンは、「セキュアなデータ統合の仕組みを提供する」という重要な役割を果たしています。

ブロックチェーンの役割②:データの真正性を担保する

ビッグデータ利用にあたっての別の課題として、「データの真正性」の問題があげられます。

データの真正性とは、「取り扱うデータが欠損や改竄等の欠陥のない正しいものかどうか」を表す概念です。

先述したように、データ分析の精度を大きく左右するのは、実は分析そのもの以上に、データの真正性であると言われています。

なぜなら、AI(機械学習)では、データをインプットとして関数を組み、精度の高いモデルを生み出すことを目的としているため、インプットであるデータが間違っていたら、当然、結果も間違ったものができてしまうからです。

そのため、データ分析の世界においては、データ自体の真正性をなんとか担保する試みとして「データの前処理」という工程が最も重要視されています。

しかし、取り扱うデータの総量や関わる人間の数、プロジェクトの予算等が大きくなればなるほど、何かしらのヒューマンエラーであったり、悪意のある第三者によるデータ改竄の攻撃を受けやすくなります。

データの前処理では、ある程度の欠損等には対応しうるものの、データの真正性自体を正確に担保することはできません。

したがって、収集したデータを管理する時点で、改竄等のリスクを減らす仕組みを導入する必要が出てくるのです。

こうした課題に対してブロックチェーンでは、ハッシュチェーン(前後のブロックをハッシュ値と呼ばれる暗号数で結びつける考え方)にうよるデータベース生成、個々のデータ履歴自体へのセキュリティ(秘密鍵暗号方式)、コンセンサスアルゴリズムと呼ばれる合意形成のルール、といった複数の仕組みによって、高いレベルでの対改竄性を実現しています。

ブロックチェーンによるデータの真正性担保の実例としてあげられるのが、「メディカルチェーン」です。

これは、かれこれ20年ほど叫ばれ続けていた医療のデジタル化、特に電子カルテを始めとする院内データの共通化の問題を、ブロックチェーンで巧みに解決しようという試みです。

医療データは、個人情報の中でも特に秘匿性が高く、セキュリティ要件が最も高く求められます。

そして、医療機関ごとのデータ保存形式も異なるため、それらを共有していくハードルは非常に高いものになります。

メディカルチェーンでは、この問題に対して、各医療機関のデータを一つのブロックチェーン基盤上に乗せることを目指しています。

また、ビジネスモデルとしては、トークンエコノミーを採用し、トークンからの収益と医療機関からの収益を主治医や患者に還元することで、この仕組みがうまく回るように設計されています。

この事例は、ブロックチェーンが、医療情報という非常にセンシティブな情報を取り扱う基盤として信用・期待されていることを示す好例でしょう。

このように、ブロックチェーンは、「データの真正性を担保する」という重要な役割を果たしています。

まとめ

ビッグデータの分析・活用はIoTに対する鍵であり、本質です。ブロックチェーンはIoTの可能性を広げる技術の一つとして期待されており、今後さらに多様なIoTとブロックチェーンの組み合わせが生まれていくと思います。将来的に、ブロックチェーンとIoTがどのようなサービスに変化するのか、その動向に注目です。

ブロックチェーンのセキュリティは万能?51%問題等のリスクと対策を解説!

2025年までに世界のGDPの10%がブロックチェーン上に蓄積されると言われる昨今。耐改ざん性や分散性というブロックチェーンの特徴はセキュリティを担保しきれるのでしょうか?51%問題や秘密鍵流出など、実際のリスクと対策も併せて解説します!

なお、セキュリティを始めとしたブロックチェーンの諸課題について、全体像や他の事例を学びたい方は、次の記事も併せてご覧ください。
→参考記事:『ブロックチェーンの3つの課題とは?〜スケーラビリティ、ファイナリティ、セキュリティ〜』

  1. ブロックチェーンの重要性とセキュリティ
  2. ブロックチェーンの種類とセキュリティ
  3. ブロックチェーンのセキュリティリスク①:51%問題
  4. ブロックチェーンのセキュリティリスク②:秘密鍵流出問題

ブロックチェーンの重要性とセキュリティ

世界のGDPの10%がブロックチェーン基盤上に蓄積される?

「ブロックチェーン=ビットコイン」と考えていたらあっという間に世の流れから取り残される。

そう聞いたら、どのように思うでしょうか?

一昔前(といっても2010年代ですが)までは、ブロックチェーンといえば、ビットコインを始めとする暗号資産(仮想通貨)を支える基幹技術の一つに過ぎませんでした。

それもそのはず、もともとブロックチェーンは、2008年に生まれたビットコインネットワークの副産物でしかなく、多くのビジネスパーソンからはFintechの一領域として認識されていました。

しかし、ブロックチェーンの技術に対する理解が徐々に深まるにつれ、金融のみならず、物流・不動産・医療など、多種多様な産業での応用が進み始めました。

そして、世界経済フォーラムによると、2025年までに世界のGDPの10%までがブロックチェーン上に蓄積されるようになるとの予測もなされるほどに、ブロックチェーンの存在感は大きくなりました

そのため、ブロックチェーンを投機的な金融の一手法に過ぎないと見るか、今後の世界の様相を大きく変える「ジェネラル・パーパス・テクノロジー」と見るかによって、私たちの行く末は大きく異なってくると言えるでしょう。

そもそもブロックチェーンとは?

ブロックチェーンは、2008年にサトシ・ナカモトと呼ばれる謎の人物によって提唱された「ビットコイン」(暗号資産システム)の中核技術として誕生しました。

ブロックチェーンの定義には様々なものがありますが、ここでは、「取引データを適切に記録するための形式やルール。また、保存されたデータの集積(≒データベース)」として理解していただくと良いでしょう。

一般に、取引データを集積・保管し、必要に応じて取り出せるようなシステムのことを一般に「データベース」と言いますが、ブロックチェーンはデータベースの一種であり、その中でも特に、データ管理手法に関する新しい形式やルールをもった技術です。

「分散型台帳」とも訳されるブロックチェーンは、中央管理を前提としている従来のデータベースとは異なり、常に同期されており中央を介在せずデータが共有できるので参加者の立場がフラット(=非中央集権、分散型)という特徴を備えています。

分散台帳とは.jpg

従来のデータベースの特徴

  • ① 各主体がバラバラな構造のDBを持つ
  • ② それぞれのDBは独立して存在する
  • ③ 相互のデータを参照するには新規開発が必要

ブロックチェーンの特徴

  • ①’ 各主体が共通の構造のデータを参照する
  • ②’ それぞれのストレージは物理的に独立だが、Peer to Peerネットワークを介して同期されている
  • ③’ 共通のデータを持つので、相互のデータを参照するのに新規開発は不要

こうしたブロックチェーンの「非中央集権性」の恩恵としては、

  • 中央を介さないので中間手数料がない、または安い
  • フラットな関係でデータの共有が行えるので競合他社同士でもデータを融通できる
  • 改ざんや喪失に対して耐性がある

ということが挙げられます。

まさにこの「非中央集権、分散型」という特徴こそ、ブロックチェーンが様々な領域で注目・活用されている理由だと言えるでしょう。

ブロックチェーンはセキュリティの万能薬ではない?

ブロックチェーンの大きな特徴の一つに、「データの耐改ざん性が高い」ということが挙げられます。

これは、トランザクションと呼ばれる個々のデータの塊のそれぞれに鍵がかけられている(公開鍵暗号方式)ことに加え、トランザクションの塊であるブロックの生成時にもコンセンサスアルゴリズムと呼ばれる合意形成のルールが適用されることで、データを書き換えることのハードルが非常に高くなっていることを意味しています。

こうした背景から、「ブロックチェーン=セキュリティを高める技術」であると考えている方も少なくありません。

しかし、残念ながら、ブロックチェーンはセキュリティの万能薬というわけではありません

確かに、ブロックチェーンは上述したような仕組みそのものの対改竄性に加えて、時系列順に取引履歴を追えること(トレーサビリティ)やネットワーク参加者間でのデータ同時共有という思想(データの対喪失性)も相まって、物流業界における偽造品対策の効果的手法として活用されるなど、そのシステムのセキュリティレベルの高さに大きな期待がされています

実際に、ブロックチェーンは、理論的には非常に堅牢なセキュリティ技術として働くことが可能で、従来のデータベースからブロックチェーン基盤へと切り替えることは、セキュリティ対策の一環としても効果がもたらされうることでしょう。

ですが、残念なことに、ブロックチェーンは「強いAI」というわけではなく、あくまで人間が稼働させる一つのシステムです。

そのため、ブロックチェーンが社会実装される過程のヒューマンエラーによって(コーディングのバグ等)、あるいは組織的な恣意性によって(51%問題等)、理論が適切に効果を発揮しないことでセキュリティが脅かされることも十分にありえます

それでは、やはりブロックチェーンは社会の救世主とはなりえないのでしょうか?

この問題を考えるためには、概念を一括りにして議論するのではなく、ブロックチェーンの種類(パブリック/クローズド)を切り分けた上で、それぞれの限界点と対策についてみていくのがよいでしょう。

次に、これらについて、それぞれ説明していきます。

ブロックチェーンの種類とセキュリティ

ブロックチェーンの分類方法

ブロックチェーンは大別すると、「パブリック型(Unpermissioned型)」と「クローズド型(Permissioned型)」の2つに分けることができます。

一般に、クローズド型ではなく「コンソーシアム型」「プライベート型」とさらに細分化させる議論が多いですが、ここでは「管理者の不在/在」という軸で分けることにより、後者をクローズド型として一括りに考えています。

ブロックチェーンの分類.jpg

ブロックチェーンの種類がセキュリティに与える影響

ブロックチェーンの種類を分ける上では、とりわけネットワークがセキュリティ要件に与える影響を考える上では、ノード(ブロックチェーンネットワークへの参加者)が限定されていないか、限定されているかが大きな論点です(前者がパブリック型、後者がクローズド型のブロックチェーン)。

一般に、「ブロックチェーン」はノードが限定されていないパブリック型を指していることが多いですが、この種類のネットワークの場合、不特定のノードが参加することでより公共性の高いネットワークを形成する必要が生じ、結果として意思決定やセキュリティの要件が引き上げられます

他方、ノードが限定されていないクローズドなブロックチェーンネットワークでは、特定の企業が許可された管理者として振る舞うことで、パブリック型の課題である意思決定やセキュリティの問題をある程度クリアすることができます。

例えば、2016年に検証が開始された海運業界のプラットフォームである「TradeLens」(IBMとMaerskが共同構築したHyperLedgerによるコンソーシアムブロックチェーン)では、二社が管理者としてネットワークのバランスを保つ役割を果たしていると言えます。

こうした背景から、ノードの参加者が限定されているパブリック型は企業向けのエンタープライズ用途に好まれますが、一方でこの仕組みはブロックチェーンを使う意義が薄いのでは、という指摘もあります。

ブロックチェーンのセキュリティリスク①:51%問題

セキュリティリスクの内容

先ほどみた「パブリックチェーン」のうち、ビットコインの原理的なセキュリティリスクと言われているのが「51%問題」です。

51%問題とは、「ある特定のノード(ネットワークの参加者)が、ネットワーク内のマシンパワーの総量を超えるパワーでマイニングを行うと、そのノードの恣意性にネットワーク全体が左右される」という問題のことで、平たく言えば、「ネットワークの乗っ取り(牛耳り)」問題といったところでしょうか。

初心者の方には意味不明かと思うので、順をおって説明します。

まず、ブロックチェーン基盤には中央管理者が存在しないため、そのネットワーク内での意思決定、例えばある取引について複数の異なる情報が提出された時(AさんはBさんに10BTC渡したが、Bさんは5BTCしか受け取っていないと主張する、といったイメージ)にどの取引記録が正しいかを決めるためには、「全てのノードが合意する、あらかじめ決められた、何かしらのルール」に基づいて判断を下さなければなりません。

このルールのことを「コンセンサスアルゴリズム」といい、ブロックチェーン基盤ごとにそれぞれのコンセンサスアルゴリズムが定められています。

例えば、イーサリアムのPoS(Proof of Stake、プルーフオブステーク)、ネムの PoI(Proof of Importance、プルーフオブインポータンス)、リップルのPoC(Proof of Consensus、プルーフオブコンセンサス)といったあたりが有名です。

さて、ビットコインでは、「マイニング(各ノードのマシンパワーを利用した計算)」を行わせることで合意形成を行う、「PoW(Proof of Work)」および「ナカモト・コンセンサス」というコンセンサスアルゴリズムを採用しています。

ビットコインの仕組みでは、マイナーと呼ばれる複数のノード達がマイニングを行った結果ブロックが生成されていく(PoW)のですが、その積み重ねとして最もブロックの数が多くなったチェーンが正しい取引記録であるとみなす(ナカモト・コンセンサス)という合意形成のルールが敷かれているのです。

ここで、これらのルールを逆手にとると、次の①②が言えます。

  • ナカモト・コンセンサス=「最もブロック数が多いチェーンが正しい」 → ①ある取引記録を正当化するためには、他のチェーンよりもブロックを多くつくればよい
  • PoW=「ブロックをつくるためには計算を行うためのマシンパワーが必要」 → ②他のチェーンよりもブロックを多くつくるためには他の対抗勢力となるノードよりも多くのマシンパワーを用いれば良い

そして、①②から、さらに次のような定理が導かれます。

  • ネットワーク全体のマシンパワーの総量の過半数を手に入れれば、どんな取引記録も正当化できる

これが、ビットコインの原理的なセキュリティリスクである「51%問題」です。

51%問題は、ビットコインの原理であるコンセンサスアルゴリズムを逆手に取ったセキュリティハックなので、原理が変わらない限りはこのリスクをなくすことはできません。

セキュリティが脅かされた事例

51%問題による暗号資産(仮想通貨)へのセキュリティ攻撃として話題になったのが、「モナコイン」事件です。

2018年5月中旬に仮想通貨Monacoin(モナコイン)への攻撃、また同時期に別の仮想通貨であるVergeとBitcoin Goldへの攻撃も発生したという事案で、一般メディアでもニュースに取り上げられて大きな話題となりました。

仮想通貨Watchによると、この事案での攻撃は、次の3点に要約されます。

  1. Bitcoin Gold(BTG)への51%攻撃。5月16~19日にかけて発生。被害額は推定1800万ドル(約20億円)。
  2. Verge(XVG)のバグを突いたTime Warp攻撃。4月と、5月22日、5月29日に発生。被害額は推定270万ドル(2億9000万円)。
  3. モナコイン(Mona)へのセルフィッシュ・マイニング攻撃(Block withholding attack)。5月13~15日に発生。被害額は推定9万ドル(980万円)。

被害額こそ一番小さいものの、モナコインは上記3種の仮想通貨の中で日本の仮想通貨取引所が取り扱う唯一の通貨であることと、モナコインが受けた「セルフィッシュ・マイニング攻撃」と呼ばれる手口が、先ほど述べたコンセンサスアルゴリズムの穴を突いた51%問題の事例であったことなどから、この事例はモナコイン問題として知られています。

事例の詳細については専門性が高く、理解が難しいためここでは割愛しますが、いずれにせよ、51%問題が、実際の事件に結びつくようなセキュリティリスクであることは間違い無いでしょう。

(本件について詳しくお知りになりたい方は、仮想通貨Watchの記事によくまとまっているので、ご覧ください)。

セキュリティリスクの対策方針

51%問題の対策方針は、「コンセンサスアルゴリズムを変更すること」です。

先ほど説明したように、51%問題は原理的なセキュリティリスクであり、PoWおよびナカモト・コンセンサスが合意形成のルールである以上、完全な対策は不可能です。

もちろん、ネットワークの規模が大きくなればなるほど、ネットワーク総量の過半数をとるマシンパワーを用意することは難しくなっていくので、51%問題を利用した攻撃のハードルも上がってはいきます。

しかし、あくまで難易度が上がるだけの話であるため、リスクがなくなるわけではありません。

また、ビットコインと同じコンセンサスアルゴリズムを採用した新しいネットワークは、51%攻撃の高い危険性にさらされることになります。

したがって、51%問題のリスクをなくすためには、ルールそのものを変更する必要があるのです。

これは、ビットコイン以外のブロックチェーンネットワークにおいて実際に行われていることで、例えば、イーサリアムで採用されている「PoS(Proof of Stake)」は、51%攻撃のリスクを限りなく低くすることを目的に定められてルールと言われています。

PoSは、「ネイティブ通貨の保有量に比例して、新たにブロックを生成・承認する権利を得ることができるようになる仕組み」であるため、あるノードが51%攻撃を行うためには、ネットワーク全体の過半数のコインを獲得しなければならず、これは過半数のマシンパワーを一時的に利用することと比べて、はるかに難易度が上がります。

また、コンセンサスアルゴリズムだけではなく、ネットワーク参加者自体を許可制にすることも、51%問題に対する一つの対策方法です。

先述した「コンソーシアム型」と呼ばれるブロックチェーンネットワークでは、「PoA(Proof of Autority)」というコンセンサスアルゴリズムのもと、閉じられたネットワーク内で一部のノードに合意形成の権限を与えるという形をとっています。

ブロックチェーンのセキュリティリスク②:秘密鍵流出問題

セキュリティリスクの内容

ブロックチェーンのセキュリティリスクとしてもう一つ代表的なものが、「秘密鍵流出」の問題です。

これは、いわゆる「なりすまし」攻撃で、各ノードが保有するアカウントに付与された「秘密鍵」を盗まれることで起こります

ブロックチェーンの仕組みでは、ネットワーク基盤上で行われた取引記録が「トランザクション」と呼ばれる塊として大量にプールされており、そのプールから1MB(メガバイト)分のトランザクションを取り出して「ブロック」としてまとめています。

このトランザクションが取り出される際に「秘密鍵暗号方式」と呼ばれる方法でトランザクションへの「署名(秘密鍵で暗号化する)」が行われることで、トランザクション自体のセキュリティが担保されています。

通常、この秘密鍵は、各アカウントごとに一つだけ付与されるもので、この鍵を使うことでアカウントに紐づいた様々な権限を利用することができます。

そのため、この鍵自体が盗まれてしまうと、個人アカウント内の権限を第三者が悪用できてしまうことになります。

これが、秘密鍵流出問題です。

セキュリティが脅かされた事例

秘密鍵流出問題として、世間を大いに騒がせたのが「コインチェック」事件です。

仮想通貨取引所であるコインチェックが第三者による不正アクセスを受け、日本円で約580億円に相当する5億2300万NEMが流出してしまった事件で、仮想通貨に対する一般消費者の信用を大きく落とすきっかけになった事件としても記憶に新しいでしょう。

TechCrunchによると、事件の経緯は次の通りです。

  • 2時57分(以後、すべて1月26日):事象の発生(コインチェックのNEMアドレスから、5億2300万NEM(検知時のレートで約580億円)が送信される。
  • 11時25分:NEMの残高が異常に減っていることを検知
  • 11時58分:NEMの入出送金を一時停止
  • 12時7分:NEMの入金一時停止について告知
  • 12時38分:NEMの売買一時停止について告知
  • 12時52分:NEMの出金一時停止について告知
  • 16時33分:日本円を含むすべての通貨の出金を一時停止について告知
  • 17時23分:ビットコイン以外の仮想通貨の売買、出金を一時停止・告知
  • 18時50分:クレジットカード、ペイジー、コンビニ入金の一時停止について告知

コインチェック事件では、秘密鍵への対策が十分に施されていないウォレットで管理していたことが不正送金の原因になったのではないかと言われており、ブロックチェーンの仕組みや原理そのものではなく、運用上のヒューマンエラーに近い要因でのセキュリティリスクを顕在化させた事例としてみることができるでしょう。

セキュリティの対策方針

秘密鍵流出問題への対応策の一つとされているのが、「マルチシグ(マルチシグネチャーの略)」です。

トランザクションの署名に複数の秘密鍵を必要とする技術のことで、マルチシグを利用する際には、例えば企業の役員陣で鍵を一つずつ持ち合うなどの対応がとられます。

マルチシグは、秘密鍵流出問題へのリスクヘッジ方法であると同時に、 一つの秘密鍵で署名を行う通常のシングルシグに比べてセキュリティレベルも高くなることから、取引所やマルチシグウォレットなどで採用されています。

ただし、上述のコインチェック事件のように、個人レベルでマルチシグを利用していたとしても、取引所そのもののセキュリティが破られてしまった場合には被害を食い止めることはできません。

セキュリティへの攻撃は複数階層に対して行われうるものであることを理解して、単一の技術のみに頼るのではなく、本質的な対応をとるように心がけましょう。