マイ・スウィート・ビーンズ

齋藤崇治。東大博士課程で政治学を研究しています。

オーバードクターは何を食って生きているのか〜オーバードクター用職探し体験記〜

中にいるのと外から見るとでどうも印象が違うものにオーバードクター問題がある。オーバードクターとは、「標準修業年限=3年を上回って博士課程に在籍すること」である。文科省オーバードクターを問題として考えているらしく、たくさん資料が見つかる。例えば以下のリンクの資料2の9ページには、オーバードクター問題の要因として様々なものが列挙されている。

www.mext.go.jp

 

TwitterGoogleあたりで「オーバードクター」「オーバードクター 収入」で検索すると分かるが大体、オーバードクター=死である。九州大でのオーバードクターの火災事件も、おそらくこうしたイメージに一役買っていることだろう。

news.yahoo.co.jp

 

では、オーバードクターたちはどのように生きているのだろうか。この記事ではその一端と食い扶持について説明を加えていきたい。

 

楽しそうなオーバードクターたち

まず強調したいのは、人文社会系の場合、オーバードクターはごく当たり前であるということだ。つまり、オーバードクター=優秀ではない、という図式は全く当てはまらない。人文社会系における優秀さを示す一つの変数として「博論を書籍として刊行したか」が挙げられると思うが、直近で博論を本として刊行された先輩方もオーバードクターしている場合がかなり多い。

 

こうなる要因は先ほどの文科省資料にも様々列挙されているが、私は、博士修了で想定される研究成果と標準年限のギャップが大きいことが最も大きい要因であると考えている。要は、人文社会系で博士号を取るには3年は短すぎるということだ。

 

そのため、博士4年生や5年生程度の場合、まだまだ同期のオーバードクターは多い。なので、会話の際に悲壮感や諦めが漂うなんてことはない。研究室で会って行うのは楽しい楽しい研究の話である。最近のデータ分析の結果がどうだったかとか、フィールドワーク先のアクシデントの話とか、本当に楽しい話で溢れている。この点はあまり博士1、2年の時とは変わらない。

 

オーバードクターは何を食って生きているのか

さて本題である。そもそも博士課程院生の食い扶持は今なお学振である。学振DC1と呼ばれる区分の場合、博士1年の4月から博士3年の3月まで月20万円の給料が支給される。そして、かつては当たり前であった博士課程在学中の学振PD(ポスドク用の学振)受給も改革によってできなくなってしまった。このことからも、文部科学省=日本学術振興会は、標準年限=3年での修了・博士論文合格を前提としていることがわかる。

 

そのため、博士4年生以上、すなわちオーバードクターは、直ちに収入の問題が生じるのである。近年は、修士2年時の学振DC1の応募が当然になり、また標準年限中の博士学生への支援も広がっている一方、オーバードクター向けの情報がネット上にほとんど落ちていないことも、「オーバードクター=死」のイメージに一役買っていることであろう。

 

結論から言えば、オーバードクターでも食い扶持はいくらかある。私の場合、博士4年4月時点で(当時はコロナ特例でDC1は3.5年もらえた)次のポストを探し始めて10月から特任研究員のポストを見つけた。つまり、無収入期間なく、次のポストに移行できた。なのでその体験をここに書き残したい。

 

1 オーバードクター用ポスト募集の種類

まず、オーバードクターが研究を行うことができるポストや資金源を見つける上で、以下の選択肢がある。

 

Jrec-inで見つける

・知り合いの先生や先輩からの紹介

 

博士院生で知らぬものはいないであろうが、Jrec-inとは博士向けの求人サイトである。ここに載っている求人は博士号を取得した人向けが多いが、目を凝らせば必ずしも博士号を要件としない求人もある。「博士号取得見込みの者」「大学院博士課程後期課程に3年以上在学した者」「大学院修士修了者」を対象とした求人は案外見つかる。

 

知り合いの先生や先輩からの紹介とは「コネ」を想起させるが、必ずしもそれのみで決まる訳ではない。有期の研究員ポストの募集の場合、そもそもJrec-inに載らない場合も多く、募集があるという情報を入手し選考に応募する時点で有利ということがままある。また、私の耳に入っている話でも、採用側が研究員候補を見つけられずに困っている事例もある。これは、採用側と職を探しているオーバードクターポスドクがお互いのことを知らない故に生じた結果であり、もったいない話である。

 

2 オーバードクター用ポストの獲得

あらかじめ断っておくと、私は4月から9月までに6つのオーバードクター用ポストに応募し、10月から現在のポストに採用された。この半年で感じたオーバードクター用ポスト探しの難しさは、オーバードクター用ポストの少なさと倍率である。倍率に関してはどうしようもないので、少なさの問題について解説していく。

 

オーバードクター用ポストが少ないことは、すでに触れた通りであるが、学振DCを除き、多くの公募ポストは博士号取得前提である。そのため、オーバードクター用ポストを探す時に必要なのは、応募できるポストの数を増やすことである。

 

応募できるポストの数を増やすのに必要なことは、自分にできることを増やすことである。自分にできることを増やすことも大きく2つに分かれ、新しい領域に手を出すことと、自分にできることを再解釈することである。私の場合、専門はアメリカ政治であり、当然アメリカ政治で博論を書くことになる。しかし、アメリカ政治だけを対象として職探しをした訳では当然ない。任期の無い専任講師以上であれば、無論、その分野の論文・書籍を持たない研究者を採用することはないであろう。しかし、オーバードクターポスドク程度であれば、当然それまでの研究との関連付けは必要であるものの、その分野の業績を持たない研究者がそのポストに応募することは「挑戦」として割と好意的に捉えられる印象がある。また、自分ができることと募集をすり合わせていくと、自分のできることがそのまま活かせるということも多い。あとは業績や研究計画という内容勝負の側面が強い。

3 研究員ポストの見極め

ポスドクオーバードクター用のポストは様々あるが、待遇はポストによって全く異なる。募集をよく読むと研究時間が全く与えられなさそうなものあれば、ほぼ自由に研究できるものまで様々である。前者で就職してしまうと悲惨で、博士論文を書けないまま満期退学を迎えることもあり得る。そのため、募集をしっかり読んで、博論執筆に問題なさそうなポストを選ぶ必要がある。

 

まとめ

文系においてはオーバードクターは決して珍しくない。また、オーバードクター用のポジションもなんだかんだある。ポストの内容には注意しなければならないが、オーバードクターも楽しく研究をしていることが伝われば幸いである。

 

 

一流論文に「まねぶ」 ーコードからレプリケーション篇ー

「学ぶ」の語源と「真似ぶ」の語源は同じらしい。実際のところどうなのかは知らないが、私は「学ぶ=真似をする」という説明をえらく気に入っている。ということで、何か新しいことを始めるときに真似をしてみるというのはとても大事だと思う。

 

では、新しいことを学ぶ時にどう学べばいいだろうか。無論、いわゆる「入門書」も大事だが、ここでは一流論文の「レプリケーション」を使って、たまたま私が勉強する必要があった時系列分析について勉強してみたい。ちなみにいわゆる入門書は以下の本がある。

www.amazon.co.jp

 

要は、入門書というのは入門書であって、それが実際にどのように研究で使えるかという観点からすれば、必要ではあるが、実際の研究との間に距離がある。それをレプリケーションで学ぶことによって、一気に埋めてしまおうということだ。

 

さて、近頃の計量政治学(というか「科学」全般)はレプリケーションを大事にしている。要は同じデータ同じコードを用いれば同じ結果(図とか表とか)を得られるという手続的な透明性である。そのため、論文が出版される際に、一緒にその論文の図表を作成するために用いたデータや分析コードが一緒にアップされることが求められる。その際、Harvard Dataverse(以下、HD)は最も使われるアップ先である。今回は以下の論文のHDを使ってレプリケーションしてみたい。

論文

www.cambridge.org

その論文のHD

dataverse.harvard.edu

 

一流の計量政治学論文では大体主要な結果を示すための鮮やかな=一眼で分かる「図」を掲載している。著作権的に危ないので、図やコードは載せないが、私はFigure 2を気に入っている。なので、Figure 2の素となるコードとデータを使ってレプリケーションしてみる。ちなみに、この研究では、時系列分析の中のインパルス応答分析という手法の入門書では必ずと言っていいほど出てくる「図」があるのだが、この論文の本体には出てこずサプリメントに出てくるのみである。その代わりにFigure 2が出てくる。そうした教科書と実際との差をレプリケーションでは学べる。

 

まず、上記HDリンク先のデータ、ドキュメントを一括ダウンロードする。そして、Readme.pdfを読んでみると、Figure 2はどうやら03-Figure2.Rというコードを使って再現したものだということが分かる。なので、03-Figure2.Rをダウンロードして読んでみると、main-time-series.csvというデータが必要なことが分かる。なので、この2つを同じフォルダの中に用意してコードを実行してみる。すると当然だが、Figure 2が出来上がるはずである。この過程で、要は「教科書だけでは分からない」部分が色々学べる。例えば

1. 入門書的な分析からどうやって綺麗な図を作ることができるか

2. 時系列分析は実際に行う前に「設定」が必要であるが、その設定をプロはどうおこなっているか(この部分は論文にもちゃんと書いてある)

3. 分かりやすいコードとは何か

である。

 

ということで、何か新しいことを学ぶ際にレプリケーションのコードを分析してみようという話でした。

 

 

勉強会に向いている本とは何か PRML勉強会に参加してみて

PRMLこと、ビショップ『パターン認識機械学習』(丸善出版)の輪読会に参加している。機械学習に興味がある人であれば知らない人はいないであろうこの本を、オーソドックスに輪番で内容を紹介していって、最後に章末の問題を輪番で解いていくという方法だ。

 

本を読んでの勉強会は大きく二つあると思う。一つは、読んで感想や思ったことを言い合う勉強会だ。もう一つは、素直に書いてあることを理解するための勉強会だ。多くの場合、PRML読書会は後者であろう。

 

これまで私は何冊か自主勉強会で読んできたが、この本ほど内容理解のための勉強会(授業は除く)で読むにふさわしい本はないと思う。その最大の理由は、関連教材がネットで多数公開されていることである。すなわち、世界中に読者と同様の勉強会を行なった人がいるのである。例えば、以下のページでは、章末問題の解法が大体記載されている。

github.com

刊行されて15年近く経つが、やはり世界中に読者がいる本は学習環境が違う。おかげで、こうした教材の手を借りつつ、関連知識の勉強をしながらなんとか勉強会に参加している。どんなに有名な本でも新刊ではこうはいかないだろう。例えば、PRMLが刊行されたばかりの状況で勉強会をしたとして、私のような読者は絶対太刀打ちできない。

 

また、これまで勉強会では本の要点をスライドでまとめるという方法を私はとってきた。しかし、このように内容の濃い本はスライドにまとめるというスタイルはデメリットが大きいように感じる。今回の勉強会では、文化の違いか、本文を読んでいくスタイルの人が散見される。折角Zoomで画面を共有できるのだから、本文を映しつつ逐行で解説していくスタイルの方が取りこぼしや分かった気になることを防げて良いのではないか。

 

ということで今日も楽しく勉強している。

 

 

構造的トピックモデル(stm)を論文で使うための私なりのプロトコル

トピックモデルとは、文書データの解析手法の一つである。トピックモデルを用いることにより、人手を介在させることなく、大量の文書集合から話題になっているトピックを抽出できる。また、それぞれの文書がどのようなトピックを持っているか分かる (岩田, 2015)。

 

Rでトピックモデルを分析したければ小難しい知識はあまりいらない。パッケージとして整備されているので、それを用いれば基本的な分析結果は簡単に出る。一方で、なんの知識も要らないかと言うとそんなはずはなく、パラメータの設定などで大小の主観が介入する余地がある。そして、この主観とは論文で求められる「再現性」と対極にあるものであることは論を俟たない。そのため、トピックモデルを用いた分析が、査読者が納得するに足るだけのものであることを、自分の責任で説明しなければならない。

 

ということで、今回の記事では、代表的なトピックモデルパッケージの一つであるstmパッケージを用いる際のプロトコルについて簡単にまとめたい。なお、stmパッケージの基本操作については、Roberts et al. (2019a)が詳しい。また本記事も多くはこのパッケージに拠っている。stmパッケージを用いた実践の解説書も出ているが基本的にはRoberts et al. (2019a)と、stmのr package document (Roberts et a. 2019b)で十分だと思う。 

 

基本的にはこの記事はRoberts et al. (2019a)の実践向け解説である。しかし、この記事の工夫としては、何らかのチューニングをする際の根拠となる論文も併せて紹介していることである。

 

なお、この記事の執筆者はあくまでパッケージを使うために勉強をしている一ユーザーなので、改善点あったら教えてください。

 

1 データセットへの文章の格納

まず、文書をデータフレームにするところから始まる。stmの一つの特徴は、文書に他の変数を追加することができる点である。例えば、dataというデータフレームで、documentsにトピックを推定したい文章を入れるとしよう。例えばこれが大統領演説であれば、変数としてpresident、すなわちどの大統領かを示す変数を入れることができる。それにより、文章以外にもどの大統領かから単語、文章のトピックを推定することができる。当然、分析にどの変数を入れたかは論文に書こう。

#大統領演説の仮想データ
data <- data.frame(
documents = 文章列,
president = 各大統領)

 

2 単語行列への変換

トピックモデルの基本的な発想は、文章を単語の束(bag of words)として考え、どの単語がどの単語と共にその文章内にあるか、から単語のトピックと文章のトピックを推定することである。そのため、与えられた文章から単語行列を作成し、程よい大きさにカットする必要がある。

 

例えば、"I have a dog"と"I have a cat"という文章を2つのトピックに分けることを考えよう。この時、単語の束とは、"I" "have" "a" "dog" "cat"の計5つである。それでは、この2つの文章のトピックを推定するのにこの5つの単語は全て必要だろうか?"I" "have" "a"の3つは両方の文章に共通する。そのため、トピックの推定という観点からすると不要である。そのため、これらの単語を除いた"dog"と"cat"からトピックを推定すれば良い。そのため、"I" "have" "a" "dog" "cat"からなる行列は、"dog" "cat"からなる行列に削減することができるのである。

 

まず、与えられた文章を単語行列に変換する作業を最初に行う。なお、medadata = dataとは、文書に付随させたメタデータを指す。ここでは、presidentという変数である。

 

なお、textprocessorにはremovestopwords、removepunctuationという変数が含まれており、文字通りストップワーズと!などの記号を取り除いてくれる。何もしなければデフォルトがTRUEなので勝手に取り除いてくれるのだが、論文では取り除いたことを申告しよう。しかし、実はこの作業は必ずしも本質的な部分ではない。

#単語行列化(ストップワード、!の除去)
processed <- textprocessor(data$documents, metadata = data
#, removestopwords = TRUE, removepunctuation = TRU0E
)

 

3 不必要な単語の除去

さて、問題はここからである。手元の単語行列(processed)はとてつもなく大きい。この単語行列には、ストップワードは取り除いたもののどの文章にも出てくるのでトピックの推定にはまるで役に立たない単語や、逆に少なすぎてトピックの推定に役に立たない単語がある。なので、こうした単語を取り除いて分析をスムーズに行いたい*1例えば、アメリカ大統領演説においてAmericanという単語はどの演説でもよく出て来ることは想定できる。とはいえ、このような単語を事前にリストアップするのは困難であるし、またリストアップしたとして今度は「なぜそのリストなのか」を正当化しなければならない。無理である。

 

それを自動化してくれるのがprepDocumentsだ。prepdocumentsの変数、lower.threshとupper.threshを設定することによって、その下限・上限に収まらない単語を取り除いてくれる。原理的にはこのコマンドでストップワーズも取り除くことができる。例えば次のコードで、15文書以下にしか出てこない単語、1000文書以上に出てくる単語を取り除くことができる。無論、ここで設定したlower.threshとupper.threshも論文に書こう。

out <- prepDocuments(processed$documents, processed$vocab, processed$meta, 
lower.thresh = 15, upper.thresh = 1000)

stmパッケージの著者によれば、5000超の単語数になると、トピックの推定スピードが極端に落ちることを指摘している (Roberts et al. 2019b)。 そして、Schofield et al. (2017)は、高頻出の明らかなストップワードを取り除くことによって、ストップワードリスト作成のメリット、"to reduce the amount of probability mass and smoothing of the model caused by frequent non-topic-specific terms" というメリットを享受できると指摘している。この単語数を目安にplotRemovedでthresholdを決めると良いだろう

 

4 トピック数の決定

この段階で手元には、程よく単語数を減らした単語行列(out)がある。トピックモデルにおいて最も重要なのは次のトピック数の決定である。ここに最も主観が入るからである*2

 

しかし、トピック数の決め方に決まったものがあるわけではない。私は、STM作成者が提案している方法を踏まえている。まず候補となるトピック数のレンジを決める。小さければ大雑把なトピックになるし、大きければ具体的なトピックとなる。その上で、各トピック数に対して、exclusivity、semantic coherenceと呼ばれるスコアを算出し、それをプロットする。その上で、"a model on the semantic coherence-exclusivity "frontier," that is, where no model strictly dominates another in terms of semantic coherence nad exclusivity " (Roberts et al., 2014)となるものを探す。

#比較のためのトピックモデルの実行
storage <- searchK(out$documents, out$vocab,
  K= seq(30, 150, 10),
prevalence =~ first_agency + president, data= out$meta)
#exclusivityのプロット作成、保存
pdf('output/exclusivity.pdf', height = 8)
ggplot(storage$results, aes(x = K, y = exclus ))+
geom_point()+
xlab('\n Number of Topics') +
ylab('\n Exclusivity') +
theme_bw() +
scale_x_continuous(breaks=c(50, 100, 150, 200))
dev.off()
#semantic coherenceのプロット作成、保存
pdf('output/semantic coherence.pdf', height = 8)
ggplot(storage$results, aes(x = K, y = semcoh))+
geom_point()+
xlab('\n Number of Topics') +
ylab('\n Semantic Coherence') +
theme_bw() +
scale_x_continuous(breaks=c(50, 100, 150, 200))
dev.off()

 この際のsemantic coherenceとexclusivityのスコアを図示したグラフは当然論文に入れよう。

 

5 最終的なトピックモデルの実行

さて、いよいよトピックモデルを実行する。あとはモデルを走らせるだけだ。この場合はトピック数160がベストだったとする。


set.seed(1314366346)
stm160 <- stm(documents = out$documents,
vocab = out$vocab,
data = out$meta,
#トピック数
K = 160,
#シード
seed = 555
#その他
init.type = "Spectral", prevalence =~ first_agency + president ,
)

これで、それなりに根拠を持ったトピックモデル分析の完成である。めでたしめでたし。

 

参考文献

Roberts, Margaret E., Brandon M. Stewart, Dustin Tingley. 2019a. "stm: An R Package for Structural Topic Models." Journal of Statistical Software. vol. 91. 2. 1-40.

Roberts, Margaret E., Brandon M. Stewart, Dustin Tingle, Kenneth Benoit. 2019b, "Package 'stm'." CRAN. 

Roberts, Margaret E., Brandon M. Stewart, Dustin Tingley, Christopher Lucas, Jtson Leder-Luis, Shana Kushner Gadarian, Bethany Albertson, David G. Rand. 2011. "Structural Topic Models for Open-Ended Survey Responses." American Journal of Political Science, vol. 58. 4. 1064- 1082

Schofield, Alexandra, Mans Mgnusson, David Mimno. 2017. "Pulling Stopword Removal for Topic Models." Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics. 2. Short Papers. 432-436 

岩田, 具治. 2015. トピックモデル. 講談社.

 

*1:実際、Schofield et al. (2017)は、こうした"frequent non-topic-specific terms"を取り除くことは分析を改善することを指摘している。

*2:一方で、これまでにも既に様々な形で主観が入っていることは読者はお分かりだろう。

MacでTeX環境をようやく構築した話 (備忘録)

LaTeXの環境をようやく構築した。

 

これまで環境構築が面倒だったので某オンラインLaTeXを使ってきたが、あまり一般的でないためか各種エラーが起きた時の対処をネットで調べてもさっぱり分からなかった。また必要なものは何もしなくてもパッケージ化してくれているためとっつきやすいものの、裏を返せばブラックボックスを扱っているような感覚であり、なぜうまくいくのか/いかないのかがさっぱり分からなかった。

 

ということでMacLaTeXの諸々をインストールした。正直、私が付け加えることは何もない。以下のサイトを上からなぞれば簡単にできる。

 

osksn2.hep.sci.osaka-u.ac.jp

 

上記記事にリンクも貼ってあるが、以下のサイトも重要なので日本語で書く人はちゃんとチェックしよう。

doratex.hatenablog.jp

 

以上2つのサイトのプロセスをきちんと踏めば、日本語でコンパイルするところまで簡単に行くはずである(時間はかかるが)。

 

そして、ダウンロードしていざ日本語で何か書く時になったら下のサイト添付のノートが非常にわかりやすい。本当に良い時代である。

www.tufs.ac.jp

 

読書家・研究者はAmazonを使い続けるべきなのか (2022年2月15日更新)

(注: 筆者はヨドバシ信者でしたが若干冷静になったので修正しました。それでも信者です。)

まずはAmazon premiumを見直そう

おそらく、現在20代後半の研究者・読書家は、大体学生時代にamazon premiumに入ったのではないだろうか。今は知らないが、私が学部生の頃は、amazon premiumといえば、本を一冊買うと10%ポイント還元、セール時には最大20%還元と、文系学生にとってオアシスであった。そして、「大学生」であるはずなのに、25歳というcutting pointによってこのサービスは使えなくなったのである。

 

しかし、これらの手法が囲い込みのためであったことは言を俟たない。最早本で10%のポイントがつくこと自体はほとんど稀で、amazon premiumのメリットはほぼほぼ配送料無料と動画サービスのみである。しかし、配送料無料のメリットはこの記事で紹介する理由からほとんどないのでまずはAmazon premiumをそのままにしてしまっている人は、それが本当にお得か考え直そう。

 

今回の記事では、それに替わるサービスとして、Gold Point Card (&ヨドバシ.com)を紹介したい。その上で、それでもなおコアなAmazon信者に対してはAmazon Mastercard ゴールドを勧めたい。

 

Gold Point Card (&ヨドバシ.com)かAmazon Mastercard (& Amazon.co.jp)か

Amazon premiumが最早お得ではない最大の理由が、Gold Point Cardとヨドバシ.comの存在である。以下の表は、Amazonとヨドバシの対応カードを用いた場合の利便性を比較したものだ。

  Amazon Mastercard ゴールド & Amazon Gold Point Card & ヨドバシ.com
年会費 11000円*1 無料
配送料 基本無料、専門店有料、一部2000円以上無料 無料
本の品揃え △(専門書が弱い)
その他品揃え
電子書籍対応 ○(Kindleへの信頼、セール)

△~○(Dolyを信頼するかどうか)

書籍ポイント還元 2.50% 10%
配達スピード △~○

 

Gold Point Cardはヨドバシカメラのポイントカードであり、ヨドバシ.comとはヨドバシカメラECサイトだ。まず、ヨドバシ.comの特徴として、家電のみならずさまざまな日用品、書籍を取り扱っている。 品揃えという点から見た場合、書籍は専門書において特に弱い。しかし、研究者であれば大学生協というルートがあるので、この点はあまり問題にならないと思っている。

 

現状、ヨドバシ.comはネット通販として驚異的な破壊力を持っている。その理由が次の2つである。

1 まぁまぁ充実したラインナップ

2 驚異的な配達スピード

3 本も含めて10%ポイント還元

4 諸々大体無料

 

まず、商品のラインナップは、Amazonほどではないものの、恐らく多くの人が予想しているよりは充実している。そのため、書籍の購入、日用品の購入は大体Amazonの代替になり得る*2

 

そして、最も優れているのが驚異的な配達スピードだ。首都圏在住なので全国でどうかは分からないが、夜に頼んだら翌日の午前中に届く。Amazonより早い*3

配達スピードに関しては意見を修正した。在庫がある場合は翌日配達でAmazonより早いこともある。一方で、本の場合、特に人文社会科学系院生のようにマニアックな本を頼む場合は、1週間程度の余裕を見る必要がある。

 

そして、読書家として美味しいのは本も常時ポイント10%還元の対象であるということだ。Amazonで買うより遥かに安い。

 

そして、最後に、諸々が無料である。Amazonの便利機能はAmazon Premiumに入るか、Amazon Mastercardを使うかでしか得られない。これらは年会費がかかる。しかし、Gold Point Card & ヨドバシ.comはこれらの費用が基本無料だ。

 

なお、かつては以下の部分でAmazonを擁護していた。しかし、残念ながらカードについても近年改悪が進んでいるので、少なくとも本や雑貨という点においてAmazonを擁護するのは厳しいように思われる。

それでもコアなAmazon信者はAmazon Mastercard ゴールドを選ぼう

以上の理由からヨドバシ.comが現状研究者にとっても最強であると考える。

 

しかし、それでもなおAmazonが便利な場面がやはり多く、多分Amazonを捨てるという研究者・読書家は少ないのではないだろうか(私はそうだ)。個人的なメリットとしては、

1 Kindleへの信頼、まぁまぁ充実したセール

2 本を含めた圧倒的ラインナップ

3 日用品に関してはAmazonの方が安いことが多い

である。こういう人たちにおすすめなのが、Amazon Mastercard ゴールドに入ってしまうことである。以下の表はデフォルトと、Amazon Prime & Amazon Mastercard クラシック、Amazon Mastercard ゴールドとを比較したものだ。

  デフォルト Prime+クラシック ゴールド
年会費 0 5000 11000*4
送料 2000円以上無料 無料 無料
Prime video ×
Prime reading ×
ポイント還元 - 2% 2.50%
旅行保険 × ×
空港ラウンジ × ×

 

Amazon Mastercard ゴールドは年会費11000円かかる*5ものの、Amazon Premium (年会費5000円)、ポイント2.5%還元が付帯する。なんだかんだAmazonを使ってしまう人は基本的に入ったほうが良い。おそらく読書家のAmazon利用は立派なヘビーユーザーである。

 

そしてなんといってもゴールドカードである。コロナによって使うタイミングは限られているが、空港ラウンジ、旅行保険などサービスは充実している*6。読書家が持つべきゴールドカードはAmazonポイントという観点からもこれではないかと思われる*7

 

Gold Point Card & ヨドバシ.comへの一本化もあり?

無論、Gold Point Card & ヨドバシ.comへの一本化も十分にありであろう。Amazonを用いる理由がKindleであれば別に数%のポイントのために4000円ほどの年会費を払う理由はないかもしれない。

 

また、Amazonのこれまでのサービスの歴史から考えて、Amazon Mastercard ゴールド周りのサービスも今後改悪の可能性は十分にあると思っている。そのため、現状私は、Gold Point Cardとの二刀流で普段使いしている*8

 

 

*1:実質4400円になる。「amazon カード マイペースリボ」で調べよう

*2:とはいえ、日用品の場合は、ヨドバシの方が10%ポイント分高い印象を持っている。

*3:余りに早いので労働条件が心配になっている。無論、Amazonもそれは同様なので、詳しいルポなどが出ない限りは、ヨドバシの方がethicalであろう。

*4:注1参照

*5:注1参照

*6:ただし空港ラウンジはほぼ国内限定

*7:読書家・研究者は楽天プレミアムカードではもとは取るのは難しいのではないか

*8:実際には楽天カードも使っているのでで三刀流なのだがそれは別記事で。

「数行の言葉で理論を理解した気になりたい怠惰」と戦う 初めてのフォーマルモデル講義体験記

私は現在カリフォルニア大学バークレー校で客員(学生?)研究員という身分を得て研究を進めつつ先生方のご懇意で授業を受けている。恥ずかしながらゲーム理論の講義をとってガッツリコミットしたのはバークレーが初めてだ。秋学期に応用篇をとり、春学期に基礎篇をとった。今回の留学の中で最大の収穫はガッツリゲーム理論の授業にコミットしたことだと思うので思ったことをつらつらと記したい。

 

なお、言葉遣いはかなり雑なのはあくまで雑感なので許してください。

 

政治学で使われるゲーム理論を理解することとゲーム理論を学ぶこととの微妙な違い

政治学をやっていればゲーム理論を見たことがないということは早々ないであろう。日本でも幾つか教科書が出ているから最早とっつきにくいものでもない。ちなみに以下の浅古先生の本はとても気に入っていて、アメリカに持ってきた本数冊のうち一つに入っている。

www.bokutakusha.com

 

さて、政治学で使われるゲーム理論を勉強する時、2つの側面があると思っている。それは、政治学上の理論に対するゲーム理論の応用を学ぶという側面と、ゲーム理論上の重要な理論を学ぶという側面だ。後者は例えば囚人のジレンマであり、前者は例えば安全保障のジレンマに対する囚人のジレンマの応用である。

 

そのため、ゲーム理論の教科書には2通りある。一つは政治学上のトピックを中心に据える教科書であり、もう一つはゲーム理論そのものの主要理論を扱う教科書だ。述の浅古先生の教科書は、前者に該当する。当然といえば当然だが、政治学ゲーム理論を勉強しようと思った場合、このタイプの教科書から入る場合がほとんどであろう。洋書でもGehlbach先生の本はこのタイプである。こちらも私は好きでiPadに入れている。こちらの方が遥かに硬派であるが、それでもなお応用という部分に力点をおいていることは変わらない。

www.cambridge.org

 

しかし、これらはあくまでゲーム理論政治学への応用を説明したものであることに注意しなければならない。これは、本の良し悪しではなく、そういうものである。(浅古先生もはっきりと序章で書いている。)結局、ゲーム理論そのものを勉強しなければ分からない部分というのはどうしても出てくる。

 

ではゲーム理論として理解するとはどういうことか。それは、前提と数式から導かれる帰結を丹念に辿ることである。それは当然各種のお約束ごとを学ぶということであり型を習得するということである。しかし、これは「数行の言葉で理論を理解した気になりたい怠惰」にとってはストレスフルなものである。式と式との関係を取り結ぶものは政治現象への直感的理解ではない。あくまで数学上の約束事である*1

 

ゲーム理論ゲーム理論として理解するために読みたい教科書

まず、ゲーム理論として勉強しようと思った時に簡単に概略を掴める動画は既にある。教科書読んで挫折した人はまず、Spaniel先生の動画集から分からなかったところだけ見ると良いだろう。

www.youtube.com

 

そして、ゲーム理論を勉強するという観点からすると政治学には優れた教科書がある。例えば、McCarty先生の教科書は、政治学のトピックを扱いながらも、ゲーム理論の主要理論を理解していくというスタイルをとっている。そのため、構成は一般的なゲーム理論教科書に沿ったものになっている。また、言葉による説明が多いため、どのような順序で物事を説明していくか極めてわかりやすい。特に、Ch. 8 Dynamic Games of incomplete informationは個人的に好き。ただ所々数理上の前提が分からない部分がある(ここがなんだかんだ重要である)ので、一般的なゲーム理論の教科書とセットでやると良いと思う。

www.cambridge.org

 

ゲーム理論を理解しようとすると、当たり前だがいよいよゲーム理論の教科書を読むしかなくなってくる。これに関しては経済学部の方々の方が遥かに詳しいだろうから彼らに任せたい。

 

とはいえ、一冊あげるなら、最近、授業のお供にフル活用しているのがPeters先生の教科書だ。私はこの教科書を非常に気に入っていて、必要な定義の数学的記述と数学的記述の言語による説明のバランスが極めて良い。おそらく、相当苦手な人に説明することをベースに論理展開を示していて、一歩一歩理解するのにちょうど良い。また、必要な定理の説明も充実している。私が今学期最も理解に苦労したものの一つが「SPNE outcomeとSPNEの違い」だが、この本はこの問題について非常に分かりやすい説明を与えてくれている。そして、McCarty先生の教科書を読んで曖昧に感じられたところは大体これで解決した*2

www.springer.com

 

今のところ、私たちのゴールは政治学におけるゲーム理論を理解することなので、McCarty先生の教科書を理解することを目標に、Peteres先生の教科書を読むというのが良いような気がする。本当はもっと教科書を紹介したいところであるが、むやみやたらに教科書を読んでも仕方がなく、またPeters先生とMcCarty先生の本をえらく気に入ったので、私はこれらをベースに研究へと繋げていきたい。

 

政治学における方法論

政治学の良いところは雑食なところだと思っている。片方の極には歴史分野で戦う研究者がおり、もう片方の極には統計分野で戦う研究者がいる。また、対象とする地域も人によって様々だ。基本的に、「みんな違ってみんな良い」学問である。

 

とはいえ、雑食ということはどうしても体系性の上で弱点に繋がる。例えば、高度な計量分析が求められる心理学では計量分析の勉強が欠かせず、緻密な史料読解が求められる史学では史料批判の勉強が必要なように、政治学を勉強する人はどこかで方法論の体系的な勉強をしておいた方が良いだろう。しかし、それは現状ではこうした勉強は多くの場合「自助」に委ねられている。政治学が雑食である以上、定性、フォーマル、定量の基礎はいずれも勉強することが望ましいだろう。政治学を専攻する多くの院生の宿命だが、こうした雑食性を理解して、しっかり体系だったマイ・カリキュラムを構築する必要があるのは言うまでもない。 

 

今回は授業の感想という体を取りつつ、本の紹介になった。とは言え、ゲーム理論の各種約束事というのは数式を眺めてその意味を理解することによってしか習得できない。この手間かかるプロセスを効率よく可能にするのはやはり授業・宿題によってだろう。フォーマルモデルの習得に強制的に時間をかけるという点でやはり授業をとって正解だったと思う。

 

 

 

 

 

 

*1:一方で、ある程度応用で研究をしたいと決めている人にとって、どこまでナッシュ均衡の背後にある諸定理を理解するべきかは一概に言えない部分な気もする。それは、因果推論を研究に取り入れる人が、どこまでその数学的説明を理解するべきかと言う問題と同様であろう。

*2:あとはバークレーの授業と院生TAによるセクションが本当に分かり易かった。この機会に本当に感謝したい。