先日,Google 日本語入力のリリースに触発されて,Human Computationというエントリを書いた.といっても,このエントリは自分用のメモのようなもので中身は何もない.その後,第1回ウェブ学会シンポジウムetoさんの発表で集合知の話が出てきたりということもあり,せっかくの機会なので,ネタをひとつ投下します.

Human(-based) computationでも集合知でも何でも良いのだが(今回の話ではそこら辺の違いは余り重要ではない),ある作業を他の人々の行為へアウトソースする場合,そのインセンティブ設計は大きく二つに分類できる.適当に命名するならば,「価値観共有型」と「副作用利用型」だ.

例えば,WikipediaやPodcastleは前者に属し,reCAPTCHAGoogleサジェストGoogle日本語入力は後者に属する.

Wikipediaの場合,システム提供者の目標は,より良い百科事典をつくることであり,その編集に参加する人々のインセンティブは,より良い百科事典(の項目記述)をつくることや自分の知識による達成感・被承認感を得ることである.Podcastleの場合,システム提供者の目標は,より良い音声認識を実現することであり,そこに参加する(音声認識結果の誤りを訂正する)人々のインセンティブは,より良い書き起こし文が読めることや貢献感・達成感を得ることである.

これらのケースでは,システム提供者の目標と参加者のインセンティブは同じ方向を向いている.すなわち,提供者と参加者との間で価値観が共有されている.これは一見シンプルかつ望ましい設計であるように見えるが,一方で,意図的に価値観を相違することでシステムを妨害することが可能だという欠点を持つ.つまり,悪意を持った人が,わざと間違いを書いたり誤った訂正をして,WikipediaやPodcastleを破壊することができる.

他方,reCAPTCHAの場合,システム提供者の目標は文字認識の精度の向上であり,reCAPTCHA利用者のインセンティブは,ウェブサイトにおけるセキュリティの確保(正確にはSPAM BOT除け)である.Google日本語入力の場合,システム提供者の目標は,より良いIME実装のための辞書や言語モデルを獲得することであり,Google検索(サジェスト)の利用者のインセンティブは,より良い検索結果を得ることである.

これらのケースでは,システム提供者の目標と参加者のインセンティブとの間には何の関連もない.参加者が自らのインセンティブに基づいて何かをしたことの副作用として,システム提供者が求める利益が得られる構造になっている.そして,提供者と参加者との価値観の共有を必要としないことで,悪意のある参加者の参入を阻止することが可能となる.Google Books (reCAPTCHAはGoogleに買収されGoogle Booksの文字認識に利用されているらしい)を妨害しようとしてreCAPTCHAに誤った入力を与えたり,Google日本語入力を使えなくするためにGoogleで意味のない検索をしたりする,といった行為が有効かどうかは不明であり,そんなことをする気には余りならないだろう(悪意はもっと直接的に発揮された方がカタルシスを得やすい).

以上,Human Computationや集合知生成システムのインセンティブ設計には,「価値観共有型」と「副作用利用型」の二種類がある,というお話.

最後に,ここまでの議論をもう一度軸を変えて見てみると,以下の二つのことが言えるだろう.

Human Computationを実現したい,集合知を得るシステムを実装したいという場合は,参加者がシステム提供者と価値観を同じくすることを前提とするのではなく,参加者のインセンティブとシステム提供者の目的とが独立であり副作用としてそれが繋がるような設計が良いのではないか(←検証されている訳ではない.第一,Wikipediaは成功していることになっている!).但しそのような設計は,価値観共有型と較べて,非常に優れた工夫が必要となる.

一方,利用者(処理をアウトソースされる側)の人間から見ると,そのシステムの提供者(アウトソースする側)の目的を理解し共感しているタイプと,そのシステムの目的さえ知らずにしかし結果として協働しているタイプの,二種類のHuman Computation/集合知生成システムが存在する.どちらが利用者にとって望ましいかは,この場では不明である.

というのが本エントリの主張.嘘か本当かは,知りませんw

さて,ここら辺から辿って,年末にでも勉強しますかね…