読者です 読者をやめる 読者になる 読者になる

社会学者の研究メモ

はてなダイアリーから移転しました。

『統計学が最強の学問である』感想

計量分析

読みました! 自信をもって学生にお勧めできる本であると思います。

統計学が最強の学問である

統計学が最強の学問である

統計学が最強」という言い方の"根拠"となっているのは、なによりもランダム化比較実験によって理論や経験知をすっ飛ばして因果関係に白黒つけることができるから、ということらしいです。このカテゴリーの本(いわゆる統計リテラシー本)は数あれど、たいていは調査(標本抽出)の怪しさや分かりやすい擬似相関について言及があるのみで、ランダム化を基軸に据えた記述はほとんどなかったと思います。言うまでもなく、R. フィッシャーの大発明であるランダム化は、実験のみならず調査観察データの分析の方針(特に計量経済学のもの)にも決定的な影響を及ぼした、現在の計量分析の中心概念の一つです。それだけでも、この本の価値は大きいと思いました。

誤植(6刷時点)や多少粗い記述もありますが、一部には読みやすさを優先させるためでしょう(「サンプル数」については、いちおう「サンプル・サイズ」の方がいいような気もしますが)。厳密な記述というよりも、豊富な例を使うなどして説得力を増していることがこの本の魅力の一つであると思います。

以上を踏まえた上で、感想をば(以下である調で)。

サンプリングとビッグデータについて

第2章「サンプリングが情報コストを激減させる」は、サンプル・サイズが一定以上を超えると減らすことのできる誤差がごくわずかになっていくという統計学の基本的知識(サンプルサイズの限界効果)をもとに、典型的なバズワード?となっている「ビッグデータ」について冷静にその意味を解説している。要するに、実質的な意味がないごくわずかな誤差の縮小を目的として、大きなサイズのサンプルを採取するために莫大な資金を費やすことは非合理的だ、ということである。

ところで、ビッグデータというのは意図的に設備を投入して採取・分析するというものであるというよりは、IT化の副次的結果として(多くの場合知らず知らずのうちに)蓄積される膨大なデータ、という側面がある。そういう意味で、ビッグデータは獲得目標ではなく、データ分析者に対するチャレンジなのである。

ビッグデータ現象に対して教科書的なサンプリングの理論をぶつけることは、「副次的に得られるようになったビッグデータを一括保存・処理するためにかける資金の効率化」に資する、という本書の主張は妥当である。

他方で、ビッグデータ分析の焦点は、実際には以下のようなところにある。すなわち、データが副次的に得られるだけに分析が限定されるということである。個人の行動や意識を対象に調査観察データを分析する研究者は、調査で必要最低限の情報が採取できているかを常に気にしている。というのは、たとえば性別や学歴といった基本的なデータを観察していないと、そのデータを使った分析に深刻なバイアスが残ってしまうからである。

ビッグデータのほとんどは副次的に観察されたものであるから、分析者が「あったらいいな」と考える変数をそこから作成できないことが多いだろう。サンプルサイズの大きさを生かしつつ、その欠点をいかにカバーしていくのかが課題となっているのだと思われる。著者は続く章でランダム化比較実験の活用を推奨しているが、それこそ「ビッグデータの分析結果を仮説とし、ランダム化比較実験によってそれを検証する」といった活かし方になるのだろう。

ランダム化比較実験と因果関係について

第3章から第5章が、この本の真骨頂である、ランダム化の威力と限界の解説である。サンプリングの考え方が統計学を知らない人たちにもある程度理解されやすいのに対して、統計学・計量分析におけるランダム化の意味についてわかりやすく伝えるのは難しい。この本は、この課題にある程度成功していると思う。

念の為に確認しておくと、統計学がランダム化を活用するのは、標本抽出のときと、実験における振り分けのときである。抽出の際にランダム化をする意味は別のところにも書いたが、ランダム抽出とは、要するに「層化(グループ化)するための情報が欠如しているときに、分布を母集団に近似させるための最終手段」である。他方で実験の際のランダム化割当は、「措置群と統制群において、措置=介入以外の状態を(期待値のレベルで)均等化させる最終手段」である。

この両者は別々の作業だが、共通点もある。両者とも、未観察あるいは未知の要因の影響を除去するためにランダム化を活用している点である。ここで強調しておく必要があるのは、それほどコストをかけずに観察できる要因を観察しないでその分布をランダム化によって近似させることは、推定の誤差を大きくしてしまうという意味で非合理的だ、ということである。

このあたりのことをわかりやすく解説することはなかなか難しいだろうが、本書においても「ランダム化の意味については、未観察・未知の要因について考えないと理解できない」ということと、「実際の観察や実験において、ランダム化は次善の策だ」という考え方はきちんと視野に入れられている(第5章)。本書を読んでこれから統計学を学ぼうとする人は、以上のことを特に注意して読めば、結果的にはランダム化についての理解が促進されるかもしれない。

なお、144頁からの「ケースコントロール研究がランダム化比較実験に比べて一概に劣っているとはいえない」という論述は、疫学者としての著者の見方が明確化されていて興味深い。ランダム化は統計学を「最強」たらしめる重要な手続きだが、著者自身は決してランダム化至上主義ではないのである。

余談だが、しばしば統計学というと「偶然にあふれているように見える世界の事象から、必然的な法則を帰納的に導くための手法」のように語られることがあるような気がするが、古典的な統計学は、「必然(固定効果)の積み重ねによって構成された事象について、偶然を人為的に挿入することで理解しようとする」方法なのだ。少なくとも私はそう考えている。

その他

社会調査、心理統計(尺度)やデータマイニングベイズ計量経済学を論じた第6章以降もかなり楽しめる内容になっている。この部分の特徴は、著者自身がコミットしている古典的な統計学の立場との違いという視点から、これらの様々な計量分析の世界を位置づけていることだ。

特に社会調査と生物統計学を意図的に対峙させた24節は面白かった。本書を読めば、ランダム化実験、ケースコントロール研究、コホート(パネル)研究、社会調査論の関係がある程度理解できる。それだけでもこの本が画期的な統計学の「入門書」であることがわかるだろう。