2025年3月24日月曜日

民主主義は難しい

民主主義教育によるインプリンティング

僕たちは民主主義を信奉する国に生まれ、小さい時から学校で民主主義教育を受けてきた。学級会では選挙もどきの多数決を行って、クラスの代表を決めるし、もめごとがあったら多数決で方針を決定するということをずっとやってきた。だから、「みんなの意見」は大事で、「多数意見」は正義とみなされる。

子供のころはそれでも良いが、大人になっても刷り込まれた価値観によって、「みんなの意見」は大事で、「多数意見」は正義と考えるようになっている。ベンサム的な幸福論に従えば、多数の幸福を最大化することが社会的に重要なことなのだから、民主主義は幸福を得るための合理的な手段だろう。民主主義を信奉する価値観は僕たちの心のかなり深い部分にまで根ざしていると思う。

でも僕は子供のころから民主主義の欠点を感じてきた。選挙ではよりよい候補者を選ぶのではなく、当選する候補者を選ぶ傾向が強くあることに気づいた。選挙をくじ引きみたいなものと思えば、当たりである当選者を選ぶと気持ち良いものだ。逆に落選に票を投じると自分の行為が無駄になったみたいで悲しさを感じる。

政治家の汚職は定期的に報道される。ま、汚職のようなことがない限り、政治家にはうまみがすくないだろうから、そういうことがあるのはしょうがない気がしている。だからと言ってよくないことはよくないので、そういう政治家や政治団体には投票しないようにしているけどね。政治献金問題をなくすのは実は簡単で、政治献金に少しだけ課税すればよい。政治団体と宗教法人は非課税となっているが、0.1%ぐらい課税すればよい。課税するには金額の申告が必要になるので、闇献金かどうかの区別が簡単になる。そして、政治献金の税率を適用するには献金する側の申告も必要とすればよい。実際、政治献金は寄付の扱いであり、会社や個人が寄付として税金の減免を受けるにはかならず申告しないといけない。だから、献金する側の事務処理は全く変わらない。そして申告漏れに対しては200%くらいの通帳課税をすればよい。


銀河英雄伝説の話

僕は民主主義を絶対視しない感じなんだけど、それでも民主主義は悪くはないんだろうな、と思っている。そういう考え方に影響を与えたのは、恥ずかしながら「銀河英雄伝説(田中芳樹著)」というラノベである。この銀河英雄伝説のテーマの一つに民主主義と独裁がある。

メインの主人公のラインハルトは最終的に作中の世界全体(銀河帝国)を統べる独裁者になる。独裁者ではあるものの割と公平であり、善政を敷く。一方のライバルであるヤン・ウエンリーは民主主義を信奉する自由惑星同盟の軍人である。自由惑星同盟は政治腐敗がひどく、銀河帝国との戦争で多くの国民を戦争に駆り立てる。ヤン・ウエンリーは自国の政治家に愛想を尽かせながらも、善政の独裁者より、汚職まみれの民主主義の方がマシとして、自由惑星同盟に献身する。汚職まみれでひどい政策であっても、民主的なプロセスには自浄作用があり、長い目で見たら民主主義の方が優れている、という信念を随所で語る。

善政の独裁者と汚職まみれの民主主義の二択だったら、当事者の国民としては善政の独裁者の方が利がある。果たしてそれでよいのだろうか?という命題である。それでもヤン・ウエンリーは確信を持って民主主義に殉じる。物語の核の一つになっている。

ヤン・ウエンリーというキャラクターの魅力もあって、民主主義に引導を渡すのは早計かもしれないと思って、これまで生きてきた。でも最近、民主主義の限界を感じている。


独裁者と民主主義は相反しないという事実

独裁体制は、汚職の温床となりやすく、自浄作用が働きにくい。ヨーロッパの中世という時代は1000年以上続くのだが、世界史を勉強すればよくわかるが中世ヨーロッパの歴史というのは学ぶべき項目が異常に少ない。これは中世ヨーロッパのほとんどの国が王政であり、独裁国家であったことと無関係ではないと思われる。さらにキリスト教の政治介入により、支配階級でさえしばしば文盲であったくらいに、知的レベルが低く抑えられていた。その結果、文明は発達せず、民衆は搾取され続けた。

独裁体制と民主主義は相反するものかというとそうでもない。銀河英雄伝説では対立の構図に置かれたが、多くの民主主義国家において、民主的に独裁者を選ぶということがしばしばおこる。最も有名なのはヒトラーである。ヒトラーは最も民主的だとされたワイマール憲法下で民主的に選ばれ、合法的に独裁者となった。ヒトラーの教訓から、独裁者を生み出さないような憲法が世界中で研究され、試されている。我が国の憲法には非常事態条項がなく、数年前に非常事態条項に関する改憲論が取りざたされたが立ち消えになった。ヒトラーはワイマール憲法の非常事態条項を活用して独裁者となっており、日本の憲法に非常事態条項がないのは制定時に日本を統治していたアメリカの希望を反映している。憲法学者はヒトラーの事例をよく知っているので非常事態条項には常に否定的である。

ヒトラーほどでなくても、中国や北朝鮮でも独裁体制が敷かれている。どちらも国名に「民主主義」と入るほどの自称民主主義国家である。ちなみに、国名に民主主義と入っている国は、建前だけが民主主義な国が多いという皮肉な法則があるようだ。

フィリピンは民主主義国家ではあるが、マルコスという独裁者を生んだ。独裁体制下では汚職がまかり通る。マルコスの失脚後かなり経つが、今でも汚職は残っており、フィリピンは汚職大国として有名だ。最近失脚したシリアのアサドは前任者の父親の代からの独裁者だった。割とうまくやっていたが、アメリカが支援する反政府組織により失脚した。武装した反政府組織があるというのはトンデモないことであるが、反政府組織による台頭は民主主義的でないので、民主主義の信奉者としては手放しで喜べる話ではない。

斯く言う我が国も長らく自民党一党独裁体制であり、民主主義的でない部分も多い。独裁体制では官民あるいは政財界の癒着が一般的に強くなる。自民党に関して政治献金不正が話が多いのは明らかに一党独裁体制が影響している。


民主主義には自浄作用があるにはある

善なる独裁者もいつかは死ぬ。その後継者が善政を敷くとは限らない。銀河英雄伝説でもその事実は何度も語られ、後半のテーマとなっている。善でない独裁者は悪夢である。独裁者が残虐な行為をしても誰も止められない。止めようとするものは反逆者として処分されるからだ。そこまでいかなくても、愚図な独裁者は摂政がおかれて、取り巻きが好き放題するようになる。こうしたパターンは世界各地で繰り返されてきた。

そうした最悪の事態を回避あるいは改善するために考え出された仕組みが民主主義と言える。民主主義自体はギリシア時代から存在していたが、ヨーロッパではほとんど採用されていなかった。キリスト教教会の方針で、民衆に教育を与えなかったからである。自分の名前すら読み書きできない一般民衆が選挙なんかできるわけがないという論理である。一般民衆が文盲なのは教会の方針なのに、マッチポンプ的な論理を主張していた。

活版印刷が発明され、一般民衆が聖書を読みだした途端、教会の権威は崩れ、各地で宗教改革という混乱が発生した。これは民主主義復活の重要なきっかけとなった。このように民主主義は独裁体制を覆す機能がある。

教育を受けた民衆からなる社会を安定化する方法論が民主主義と理解することができる。


民主主義のスタートアップは失敗が多い

実は民主主義はいたるところで失敗している。独裁体制を生み出すだけでなく、せっかく導入した民主的な社会システムが崩壊する事例が多いのだ。アフガニスタンではアメリカ主導で構築した民主主義体制が、アメリカ軍の撤退と同時に崩壊し、タリバンの独裁政権が復活した。時系列はこの通りだが、実質はアメリカ軍の駐留中から民主主義体制が事実上崩壊していた。汚職が蔓延し、社会が機能不全に陥っていたのである。

最も新しい国として発足した南スーダンでは、民主的な政治体制が導入されたが、たった5年程度で崩壊し、事実上国連の管理下に置かれている。複数の武装組織が争っていて、選挙が行えていない。

ミャンマーは軍事政権が民主主義勢力に折れて、軍事政権と民主主義の融和体制が敷かれたが、先ごろ軍事政権が民主勢力を退け、軍事独裁体制に戻ってしまった。民主勢力が支持を拡大した結果、軍事政権側が危機感を抱き、軍事クーデターを起こし、内戦状態が続いている。

これらの事例に共通するのは、長らく独裁体制であった国に、外国主導あるいは外圧で民主主義が導入されているということである。独裁体制の弊害の一つに教育の軽視がある。中世ヨーロッパでそうであったように民衆の教育レベルが低い方が統治しやすい。なので、独裁体制下では教育が満足に施されない。典型例はカンボジアを支配していたポルポト派である。ポルポト派は独裁体制を確立した後、インテリ狩りを行った。知的階級の人々を弾圧・処刑したのである。なんと眼鏡をかけているだけでインテリと判断され処刑されたそうだ。その結果、文盲率が大幅に上昇した。教育の足りない人々は団結して物事に対応することが難しくなり、独裁政権を打倒するような勢力が発生しなくなるのだ。

幸いなことにカンボジアでの民主主義の導入は比較的成功している。成功要因は本格的な民主主義の導入まで十分な時間をかけたことだと思う。知識層が完全に駆逐されていたカンボジアで最初に行われたことは学校の先生の養成だった。学校の運営再開までに5年ほどかけ、そこから10年ほどかけて教育を施し、ようやく選挙にこぎつけた。このような気長なプロセスが成功したのは、日本がPKOに参加したことが大きいと思われる。

逆に教育の足りないところに民主主義を外部勢力により導入すると、選挙権を持つ人々が選挙の意味を正しく理解できないので、選挙の不正が横行する。典型的には買収が横行するのだ。南スーダンが崩壊した原因はこれである。

別のパターンとして、宗主国が崩壊してタナボタ的に独立国となったケースがある。韓国やウクライナが典型例である。韓国はいまだに選挙で毎回ゴタゴタしているが、これは民主主義の選挙の側面が強すぎて、法による統治への理解が浅いからだと思われる。

一方、ウクライナはソ連崩壊後に発足した国で当初から民主主義に関する理解は十分であった。しかしながら、法による統治への理解が弱く、何度かの独裁体制とその打倒が繰り返され、手が付けられなくなっている。近年では親ロシアと反ロシアの政権がおおむね交互に政権交代を行っており、政策が安定していなかった。挙句の果てが、反ロシアを掲げたコメディアンを大統領にしてしまい、ロシアとの戦争に突入した。ゼレンスキーが行ったのは、これまでの政権の方針を一方的に破棄する行為であり、実質的に宣戦布告である。歴史的には平和条約や不可侵条約、停戦合意などの破棄によって戦争突入となるのが通例であり、これらの破棄をもって戦争の意志ありと判断するのが常識的な歴史観である。破棄されたのはミンスク合意2というもので、ウクライナ東部の自治を認める代わりに停戦するという合意であった。これを破棄するということは、停戦解除するという意味である。停戦が解除になったので、合意以前の戦闘状態に戻るのは必至。停戦合意を破棄するとは頭が悪すぎる。そもそもは、歴史を学んでいない素人を選挙で選んでしまったウクライナ国民の浅慮であり、それは民主主義への理解の浅さの表れだと思う。


支持率至上主義の危うさ

ウクライナの戦争は浅はかなゼレンスキーをたしなめて傷が浅いうちに戦闘終結させるべきだった。戦争の原因が停戦合意の破棄なので破棄した側に非がある。停戦合意の破棄とは停戦合意前の状態に戻るという意思表示であり、それは戦闘再開の通告である。これが平和条約や不可侵条約の破棄であれば、戦争までに話し合いのチャンスがあった。しかし、停戦合意の破棄から戦闘再開までのタイムラグは理論上存在しない。イスラエルは停戦合意を破棄せずにガザの爆撃を再開していて、これが普通の停戦合意破棄のパターンである。ウクライナが停戦合意を破棄したということは、ウクライナはすぐに戦闘再開するという意思を示したという意味。停戦合意破棄する側は当然戦闘準備万端と推定されるので、わけで、それに即応するのは当たり前。ロシアがウクライナに攻め込んだことに関して、国際法的にロシアの瑕疵は一切ない。

しかし、ここで民主主義の悪い面が出てしまった。攻め込まれたウクライナ、攻め込んだロシアという構図を喧伝することで、悪いロシア対かわいそうなウクライナという図式が浸透してしまった。もともと対ロシアの組織であるNATOはここぞとばかりウクライナに肩入れした。NATOを中心とする西側諸国のリーダーたちはウクライナ支持を表明すると支持率が爆上がりすることに気が付いた。その結果、西側諸国は相次いでウクライナ支持を表明し、戦闘継続の環境が整ってしまった。

勝てない戦争に肩入れするのは極めて危険な行為であることは歴史で何度も証明されている。日本は三国同盟のドイツ・イタリアが戦争に突入し、なし崩し的に対立の構図に巻き込まれ太平洋戦争に突入することになった。三国同盟を早々に破棄していたら戦争を回避できていたかもしれない。ま、そうでないかもしれないが。少なくとも、戦闘に参加しなくても資金を提供するだけで肩入れしたことになる。すくなくとも、提供した資金を回収するには肩入れした国が勝利する必要がある。勝利の道筋が見えていなければ、資金提供すべきではない、というのが戦略上の常識である。

しかし、西側諸国のリーダーたちは勝利条件すらわからない戦争に大量の資金を提供した。その見返りは国内の支持率であった。ウクライナに肩入れした国々のリーダーは10~20%の支持率の増加を得た。これにより1~2年の政権基盤を得た。しかしながら、ウクライナの戦況が芳しくないことが漏れ聞こえてくると、急激に支持率が低下した。最初に耐えられなかったのはイギリスである。イギリスは首相が4人目である。

次に交代したのはイタリア、しばらくして、日本(日本の首相交代はウクライナが原因というわけではない)。そして、アメリカも交代した。最近になってドイツとカナダも交代し、残るはフランスのみである。ただ、フランスもウクライナの敗戦が決まると耐えられないかもしれない。

当のウクライナは選挙を停止しており、これ以上アメリカの支持を得るには選挙するしかない状況に追い込まれている。そもそもウクライナは議会選挙は一度やっていて、政権側の勢力が負けたことから、続く大統領選挙を延期したという経緯がある。大統領選後にゼレンスキーはフランスあたりに亡命するはずだ。

ともかく、武器が尽きなければ負けないだろうということで西側諸国はウクライナに際限なく援助してきたが、その理由は各国の国内支持率のためである。これはもう、正義とかちゃんちゃらおかしい構図であり、もっともやってはいけないことだ。それに歯止めがかからないというのが民主主義の真実ということなのだろう。

民主主義は大事だ(たぶんそう)。民主主義は正義だ(ちょっとあやしい)。正義は負けてはいけない(そうあってほしいけどね)。そういった理念的なことを掲げるのは素晴らしいことだが、その動機が「支持率」というのがとても悲しいし、そのような動機に基づく行動はたぶん正しくない。

「国際政治はヤクザの抗争がもっとも近い」と僕は大学の国際政治学で教わった。その通りだと思う。「勝った側が正義」というのは日本人は太平洋戦争の敗戦で身に染みて理解したはずなのに、攻めた・攻められたを正義の基準としたいようだ。戦争は殺し合いであり、通常の法律が及ばない。不法滞在の外国人を殺したら、当然殺人罪である。銃を持って人前に出てきたら、脅迫罪だし、応戦されて殺されても正当防衛なので文句は言えない。いちいちそういう理屈をこねると面倒なので、、細かな犯罪行為を無視するというのが「戦争」の本質だ。基本的には戦争に至らないように様々な努力をすることが肝心である。戦争やむなしとなっても勝つ算段は用意しておかないといけない。

勝利条件すら明らかでない戦争に支持率目的で参入したG7リーダーたちのほとんどが淘汰されたことは、きっと良いことだと思う。民主主義の自浄作用と言えるだろう。ウクライナの戦争において勝利条件が明らかでないというと反対意見が多いかもしれない。でも、ウクライナの主張はロシアの完全排除であり、それは第三次世界大戦でも起きない限り無理だ。ロシアはいまだに相互確証破壊を何度も実行できるだけの核兵器を所有している。ロシアが消滅しない限り、ロシアが負けることはない。ゼレンスキーはそれを知っていて、NATOを戦争に参加させようとずっと画策している。そういうのがわかっているからトランプに怒鳴られた。

戦争に負けると、確実に支持率は下がる。そのような判断をポピュリズム傾向の強い指導者が選択するのは難しいかもしれない。日本は昭和天皇という支持率の定義外の存在がいたからそれが可能だったが、ウクライナはどうか。そのあたりに民主主義の限界と絶望が現れるかもしれない。


2025年2月18日火曜日

How to be a programmer

 プログラミングできない先輩!

小学校からのプログラミング教育の義務化により、これからの若い人たちはみんなプログラミングができるようになるかもしれません。ということは、現在大学生くらいの人たちは後輩から「プログラミングができない先輩」というレッテルを貼られて馬鹿にされる、という未来が垣間見えます。これはあたかも、Windowsが普及して事務処理がPC化したときに、「ワープロのできない上司」を陰でコケにしていたのと似た構図。

「ワープロのできない上司」は10年もしたら定年でいなくなってましたが、「プログラミングができない先輩」はこれから40年近く現役。その間ずっと馬鹿にされ続けるというのはいたたまれないんじゃないかな。ま、教育を受けたからといって全員がプログラミングできる人になるとは限らないし、現状の教科書を見る限りそうなる可能性は極めて低いですけど、馬鹿にされるかもしれない当事者にとっては気が気でないと思うのです。いや、そういう焦りを感じていない人は焦りを感じた方が良いよ。


文科省のプログラミング教育

小学校からのプログラミング教育において決定的にかけている視点が、「プログラミングとは何か?」ということだと僕は思います。狭義のプログラミングとは、何らかのコンピュータ言語を用いて正常の動作するコードを作成することです。でも、コンピュータ言語なんて5年10年で流行り廃りを繰り返すもの。学校で特定のコンピュータ言語を教えることは非合理的です。小学校で一生懸命勉強した言語が大学卒業時にはゴミくずになっていたとしたら、やるせなくなりませんか?

小学校でのプログラミング教育において結構真剣に議論された事柄の一つに、多くのコンピュータ言語ではキーワードに英語(英単語)を用いるが、小学生に英語(アルファベット)はなじみがないので教えにくいというものがあります。キーワードとして日本語を用いるコンピュータ言語や、グラフィカルインターフェースでプログラミングするScratchという言語、さらに日本語化されたScratchなどが検討されました。ただ、小学生だと日本語であっても難しい漢字が使えなかったりするので、日本語化Scratchでも問題が解決しません。NHKの教育番組では漢字交じりの日本語化Scratchを使ってましたけど、どの学年向けだったんだろう?小学校での英語教育義務化に伴い、無理して日本語化しなくてもよいのでは?という機運が出てきているような気配があります。どうなるのかな?

ま、でも小学生だと「ゲーム作りたい!」とかなると思うのです。僕もそうだったけど。でもゲームを作るには果てしないプログラミングスキルが必要で、そのギャップを目の当たりにした子供たちはきっとプログラミングをあきらめるんじゃないかな。プログラミング教育の推進がプログラミング教育を阻害するという意味の分からない状況です。

言葉の問題や理想と現実のギャップの問題があるんだから、狭義のプログラミングを教えるのはよくないんじゃないか?という意見があり、文科省は「広義のプログラミング」を指導する方針にやや方向転換しました。「広義のプログラミング」とは、コンピュータ言語を直接用いなくてもプログラミングの発想が要求される問題に対して取り組む際の考え方のことを指します。例えば、レゴブロック的なものを用いてロボットの動きを制御するとか、そういうやつです。コンピュータ言語の縛りはなくなりましたが、プログラムのメタファーがしっかり残っているところ中途半端です。


プログラミングとは何か?

そもそも僕たちはプログラミングを学ぶ必要があるでしょうか?大抵の大人はプログラミングができません。でも世の中何とかなっています。だから、プログラミングスキルは必須ではない気がします。必要か不要かで言えば不要です。それでもプログラミングを学ぶことは役立ちます。

どんな作業でもよいのですが、その作業がいくつかの工程を含んでおり、その工程の順序などが正しくないと作業が失敗してしまうとき、その作業はプログラムと似た特徴を持ちます。

例えば、インスタントコーヒーを作るとしましょう。まず、湯を沸かします。その間にカップを用意し、そのカップにインスタントコーヒーの粉を入れます。お湯が沸いたらそのカップにお湯を注ぎ、お好みで砂糖やミルクを入れます。砂糖やミルクを入れる場合は、ティースプーンでかき混ぜます。砂糖やミルクを入れずにコーヒーを配膳する場合は、ティースプーンを付けます。

このとき、お湯を注いでからコーヒーを入れるとコーヒーの粉がダマになったりしておいしくありません。また、コーヒーの粉を水に溶かしてからなべにかけると風味が飛んでしまいます。砂糖やミルクを入れてかき混ぜずにお客さんに出すなんてことはまず考えられません。どの手順も正しい順番で忘れずに実施することが肝要です。このような手順の解説は一般に「マニュアル」と呼ばれます。で、その「マニュアル」は正しく「プログラム」になっています。いわゆるプログラムと異なるのは、指令の対象がコンピュータではなく人間であることです。

コーヒーの例でわかるように、複雑な作業ほど、各工程の順序や「条件分岐」が大事なります。これもプログラムの特徴と同じです。

プログラミングとは計算機が実行可能な手順書を作ることです。ということは、「マニュアルを作成する」という作業はプログラミングと類似の作業であるということです。マニュアル作成なら誰にでも機会があるように思いますので、そういう意味ではプログラミングを学ぶ意義はあるかもしれません。


プログラミング適性

プログラミングに適性のある人とない人が両方存在するというのは割とよく知られています。このことをはっきりと言ったのはプログラミング界隈のレジェンドの1人、Donald Knuth博士です。Knuth博士は「およそ50人に一人、プログラミング適性を持つ人がいる。学歴は一切関係がないようだ。」と言及しました。Knuth博士はスタンフォード大学の情報学科?の教授であり、その情報系の学生でも適性を持つのは50人に一人というのです。さらに、文系理系は問わないともいうのです。実際、プログラミングのコモディティー化が進んだ現在では、女性プログラマーは珍しくないし、なんなら主婦プログラマーなんてもたくさんいます。だからKnuth博士

恐ろしいのは、プログラミングを志すエリート集団においてすら、50人に一人というルールが見られるという点です。知性に関するセレクションを受けているのに適性者の割合は増えないのです。さらに恐ろしいことに、プログラミング適性を持つ人の能力は適性の無い人の能力の100倍以上あるということです。なので、Knuth博士は、自分の学科のミッションはプログラミング適性を持つ学生を確実にピックアップすることだ、とすら言ってます。学生を指導して育てるべき大学教授が、教育を放棄するようなことを言うのです。

ま、実際、Knuth博士の言うことは概ね正しいので、なかなか反論できません。僕の経験上も、スペシャルな人は50人に一人か、もっと少ないかもしれません。多分、ほとんどの人はプログラミング適性がほんとに高い人々と出会ったことがないと思います。僕と同じかそれ以上のプログラミング適性を持つ人は、僕以外に2人しか出会ったことがありません。その人たちは普通の人とは全く違います。二人とも社会不適合ですが、一人は周囲の人々に才能を認められ、大事にされています。もう一人は、いま、どうなっているんだろう?

特別なプログラミング適性がなくても、そこそこのプログラム(100行くらいまでのコード)は作れます。でも3人に2人は、そのレベルの適性もありません。僕の経験上、まったく適性のない人は、どれだけ指導しても全く上達しません。その理由は、「性格」に尽きます。


プログラミング適性は性格と強い相関がある

プログラミング適性のある人は、性格に共通の特徴があります。それは「自力本願」を第一に考えるということです。課題や困難があったとき、まずは自力で取り組み、可能なら自分の力で課題や困難を解決する傾向があります。

プログラミングは一種のマニュアル作りです。マニュアルは一度作ってしまえば、同じことを2度とする必要はありません。だから、他人の力を借りてプログラムを作成したとして、果たしてそのプログラムを書いた人は誰か?ということになります。それは決して自分ではありません。

プログラミングは、自分自身でプログラムを作成した経験がスキルに直結します。たくさんコードを書いてきた人ほど、プログラミングが上手なわけです。他人に頼ってプログラムを書いてもらっても、人の書いたプログラムを拾ってきてコピペしても、自分のプログラミングスキルは向上しません。だから、他人の力を頼みにする「他力本願」な人はプログラミング適性がありません。

一般に他力本願な人はコミュニケーション能力が高い傾向があります。というのも、課題解決を他人にお願いするわけですから、他人とのコミュニケーションが必須です。お願いを通すには、そのコミュニケーション能力が高くないといけません。これまでの人生で他力本願がメインだった人は、そのたびにコミュニケーション能力が磨かれ、その能力に頼るようになります。その結果、自力での問題解決能力が向上せず、自力本願な考え方が消えてしまします。

一方、自力本願がメインの人は、コミュニケーション能力が重要ではないので、コミュニケーション能力は劣っているか、せいぜい人並です。高いプログラミング適性がある人は、極端な自力本願傾向があり、コミュニケーション能力がとても低い場合があります。その結果、プログラミング適性と社会不適合性とに強い相関がみられるようです。

プログラミング適性があってもコミュニケーション能力が高い人々がごく少数います。そういう人は実は女性に多いようです。これは女性のコミュニティーの特徴に基づくと僕は思っています。

女性のコミュニティーでは課題を解決する際にちょっとした特徴があります。それは、自分のできる役割を皆が率先して立候補するという傾向です。女性は失敗を極端に嫌う傾向があります(これは幼少期からの女性教育が影響していると思います。詳細は割愛)。そのため、「簡単な作業を引き受けて、難しいことをさせられるのを避けたい」と考えているようです。その結果、自分ができる簡単な役割を早めに確保するわけです。そうすると、最後に難しい仕事が残ります。その最後に残る仕事を誰が引き受けるか、というのが問題になります。発言の順序はコミュニティーでの序列に強く依存するので、最後に残るのはコミュニティーでの序列が最低な人あるいはコミュニケーション能力が低い人になります。そういう難しい仕事は「他人ができない仕事」として残っているわけで、「自力本願」しか解決手段がありません。ということで、そういう残り物係の人は自力本願傾向が強くなり、プログラミング適性があります。手芸とかを趣味にしている主婦はプログラミング適性が高いことが多いです。

コミュニティーに優秀で頼りになるリーダーがいると、そのリーダーが最後に残る仕事を引き受けるということも多いと思われます。なので、行動派のリーダーは自力本願傾向が強くなります。その結果、プログラミング適性が高くなります。ただ、コミュニティーのリーダーなので、コミュニケーション能力も非常に高いです。おそらくこの場合のみ、コミュニケーション能力とプログラミング適性が両方高くなります。こうした人々は管理職としての能力も高く、プロジェクトマネージャーとして極めて優秀です。

音楽をやる人は、案外プログラミングができます。アルゴリズムは日本語で算譜と書くことがあり、音楽の楽譜に対応します。楽譜には「繰り返し」に関するたくさんの規則があり、これがプログラミングにおける「ループ」の概念に通じます。シンセサイザの打ち込みコードはまさしくプログラムになっていて、DTMをやるひとはそこそこプログラムが書けます。


プログラミングスキルのポジティブフィードバック

プログラミング能力(速度)は、これまで書いてきたコード量の対数に概ね比例するという感触を持っています。誰でも最初は初心者なので、プログラミング適性が高くても最初のプログラミング能力は普通です。自力本願の人は、自力解決を目指すため、サンプルプログラムを書きうつす作業でさえ、「自力で書けるか」「自分に足りないものは何か」などを確認しながら行うので、プログラミング能力の向上に寄与します。他力本願な人は単にタイプするだけなので、能力向上につながらないのです。

最初の一歩から学習効果が違っていて、それがフィードバックされます。最初は10行程度のコードが書けるだけだったのが、10行分の経験値を得て、次は11行書けるようになります。合計経験値は21行になり、次は12行書けるようになるかもしれません。

適性の無い人は、最初の10行を作ったとしても、経験値的には2行ウ分かもしれないのです。次のコードはやはり10行どまり。それを5回繰り返してようやく11行です。適性のある人は、5回も繰り返すと、合計経験値は70行くらいになっており、コード量も20行に近くなるわけです。たった5つのプログラム作成経験で、能力差が倍近いというのは、通常の学習では考えられません。

適性のある人は、あっという間にプログラミング能力を拡大させます。ちなみに僕が初めて1000行書いたのは、プログラミングを始めて1カ月位したころ。1000行書くというのは下っ端プログラマとして就職するレベルで、専門学校等ではおよそ3年かかります。当時僕は中学2年だったので、中卒でプログラマになるという進路を真剣に考慮しました。

小学校でプログラミング教育が始まって数年たちますが、おそらく適性のある子は教師の能力をはるかに超えていると思います。そういう子供たちをどのように扱うかをそろそろ真剣に考えないといけないと思うのです。日本では英才教育とか、ギフテッド教育とかなじみがないので、とても心配です。

プログラミングには数学とか理科の素養が必要です。子供はそういうのをちゃんと勉強していないので、プログラミングスキルをあんまりもてはやすべきではないと思います。プログラミングに関する専門知識はとても膨大です。順を追って身に着ける必要があり、時間がかかります。10年くらいはかかるかな~。周辺知識もたくさん必要です。だから、プログラミングを英才教育する必要はないと僕は思うのです。英才教育をするなら、プログラミングの周辺知識を教育したらよいと思います。

とにかく、数学は大事です。将来の最重要分野である人工知能では「行列」が大活躍します。ちょっと前の教育改革で行列は高校で学ばなくなりました。人工知能が注目を浴びつつある状況下でのあまりに軽率な決定に唖然としました。ということで、これからのプログラマは最低でも大学1年生レベルの数学知識が必要なのです。それを理解するための基礎となる数学ももちろん必要です。プログラミング教育とか言う前に数学の教育内容を整理すべきです。


プログラミングができない人のパターン

Knuth博士によると文系理系は関係ありません。ある種のタイプの人はプログラミングに適性がありません。それは「結果のみを求める人」「他人に頼ろうとする人」「暗記で勉強を乗り切ろうとする人」「集中力が続かない人」です。

最後の「集中力」の話は後回しで、その他の項目は基本的に根っこが同じです。課題に対して、とりあえず乗り切ることを最優先し、乗り切ったらそれで終了と考える人は要注意です。短期的な効率は高いように見えますが、同じ課題に出くわしたときには同じ苦労をすることになります。生涯にわたって一回だけの課題であればそれでよいですが、そんなことは稀です。結果のみを求める人は課題に取り組む過程で出くわす学びに価値を見出しません。他人に頼るとそもそも学びの機会はありません。暗記に頼る人は、同じ課題には対応できますが、似た課題には対応できません。学びを軽視しているのです。学びの効果は一生涯続くので、長い目で見れば学びを大事にして、結果が遅れたり余計な苦労をして学びを得る価値は十分にあります。

プログラミングでは常に学びがあり、再現がありません。プログラミングの醍醐味の一つに「最適化」があります。最適化とはコードの簡潔さ、実行の速さ、メンテナスの良さなどを求めてプログラムを改善する行為です。最適化せずともプログラムは正常に動作し、目的を達せられます。だから、結果だけを見れば最適化は無駄に見えます。でも、プログラミングでは最適化がもっとも楽しいのです。最適化には学びがあります。今まで気づかなかったことに気づいて、パズルを解く楽しさがあります。それを楽しいと思う感性がとても大事だと僕は思います。

プログラミングは組み合わせを見つけ出すパズルのような側面があります。プログラミングはレゴに例えられることも多いです。プログラミングを構成する既知の要素(例えば基本の文法事項やライブラリなど)をうまく組み合わせて望みの動作を実現することがプログラムです。各要素はレゴのピースのようなもの。レゴピースに様々な形があるようにプログラミング要素にもいろんな種類があり、組み合わせに制限があったりします。そういう制限をうまく利用して、くみ上げるのがプログラミングの醍醐味です。

そういった行為を行うには集中力が必要です。難しいパズルを解くのに膨大な時間がかかるように、プログラムを作るのには時間がかかります。訓練でその時間はどんどん短くなりますが、だれでも最初は初心者。必要な時間をたっぷりかけるためには集中力を持続させねばなりません。その大事な集中力が足りない人はプログラミングに向きません・


プログラミングスキルはこれまで書いたコード量の対数に比例する

僕の経験ではプログラミングスキルはこれまで書いたコード量の対数におおよそ比例します。「書いた」というのに「書き写した」は入りません。

プログラミングを学ぶ際は、まずサンプルコードを書き写して動作を確かめます。プログラムを動かすことを目的だと思っていると、コードに注意がいきません。だから、そこに学びはありません。コードの動作を確かめ、動作とコード内容の対応を読み解くことで学びがあります。この動作とコードの対応をちゃんと確かめるかどうかで、最初の一歩に差が出ます。プログラミング適性の無い人は課程よりも結果に興味があるので、プログラムが動作したらそれで終わりになります。だからスキルが向上しません。

次に練習としてちょっとした書き換え課題があったとします。動作とコードの対応をちゃんと理解していれば、どこをどのように書き換えればよいかは簡単にわかるような設定です。その中で学びが設定されているわけです。でも動作とコードの対応を理解していないと、どうやればよいかわからないので誰か別の人に尋ねることになります。親切な隣人はやり方を教えてくれるでしょう。そして課題をこなせるわけですが、結果にだけ興味がある人にとっては結果が出たらそれでおわりなのですから、そこから学ぶことはしません。

ここまでで書いたコードは10行程度でしょうが、適性の無い人は学びがないので、経験値を得られません。次の課題はもっとひどいことになるでしょう。そして、あきらめるのです。さて、どこに問題があったでしょう?

プログラミングスキルは経験値に正の相関があります。というか、自分で書いたコード量を経験値とするなら、プログラミングスキルは経験値のおよそ対数に比例します。これはRPGにおける経験値と能力値の関係にみられる一般的な関係です。この関係は「学習曲線」に基づきます。

Wikipediaによると、$n$個目の商品の生産コスト$C_n$は$C_n=C_1 n^{-\alpha}$であらわされます。$\alpha$はコスト弾力性と呼ばれる値です。これをプログラミングスキルに当てはめると$n$はこれまで書いたコード量(行数)、$C_n$は1行を書くのに必要な「苦労」になります。プログラミング能力は$C_n$の逆数に概ね対応します。

プログラミングスキル(レベル)は概ね作成可能なコード量の対数になります。10行程度で初心者、100行で中級、1000行で駆け出しの職業プログラマ、というのがおおむね常識的なところです。1万行だとエース級、10万行だと超級です。

10万行以上は行数ではカウントできません。タイピング能力の限界があって、10万行をタイプするのに数カ月必要なるからです。10万行になるとオリジナルなプログラミング言語(大体2~4万行)をプログラムに組み込むことができます。そうするとコードが圧縮されます。このコード圧縮によって、実質100万行相当のプログラムが作成可能になります。100万行相当というのは伝説級です。そして、おそらく1000万行相当クラスというのが存在するかもしれません(未確認)。1000万行だとOSが丸ごと作成できます。そのレベルのプログラマは神話級ですかね。

ということで、プログラミングスキルは$\log{C_n^{-1}}=\alpha \log{n}-\log{C_1}$という式が導けます。つまり、プログラミングスキルはこれまで書いたコード量(行数)の対数に比例するということがわかります。(証明終わり)

プログラミング適性のある人は、どんどん経験値(コード量)を稼ぎ、スキルアップします。最適化に取り組むのは効率の良い経験値稼ぎです。最適化が性に合うと経験値がどんどんアップするので、プログラミング能力の成長が加速度的に向上します。あっという間に差がつくわけです。

1000行程度のプログラミングスキルはプログラミングを専門に学ぶ学生が3~4年かけて身につける技術レベルです。一般の教師がこのレベルに達していることは稀です。しかし、適性のある子どもは2~3カ月でこのレベルに達する場合があります。1000行程度が書けると、まあまあのゲームなんかでも収まるので、子供は嬉々として取り組むでしょう。その先のレベルはいろいろ勉強しないとだめなので、子供にはやや難しいかな。

いずれにせよ、学校の先生が指導できるレベルなんて早々に超えてしまいます。子供は簡単に増長しますから、指導を誤ると危険です。1万行クラスに至るにはプログラミング以外の知識が重要になります。最近なら、ネットワークプロトコルとか並列処理とかAIとか。複数言語を使いこなす訓練も大事です。高卒レベルの数学は必須です。英語のドキュメントを読む能力も必須です。可能なら機械翻訳に頼る必要がないレベルまで習熟した方が良いです。そういう周辺知識の習得は小学生には無理なので、そういう知識を身につけるために勉強を頑張りなさい、と指導するしかありません。


自分で課題解決するメンタリティー

僕は職業プログラマの人たちとも仕事をした経験があります。優秀な人は自分がプログラムを書くという前提に立ち、学習に臨みます。ちょっとした数学が必要だとします。普通の人は理解があやしい部分があったとしても、全体的に理解していれば学習完了と判断します。でも優秀なプログラマはそういう「理解が怪しい部分」があると、その部分をしつこく質問します。なぜなら、その知識を用いてプログラムを作ろうとすると、一か所でもわからない部分があったらプログラムが完成しないからです。理解のレベルのが数段高度にあるのです。

プログラマとして優秀な人ほどこの傾向が強いように感じます。僕は中学生のころにプログラミングを始めたので、高校生のころにはこうしたメンタリティーにどっぷりつかっていました。特に効果があったのは物理です。原理原則を理解して組み合わせて課題を解決するという物理の哲学はプログラミングに通じるものがあります。原理原則の学習には普通の人より時間がかかりますが、理解してしまえばあとは勉強が必要ありません。特に物理では理解の深さが重要で、問題が解けるかどうかではなくて、問題を解くのに必要となる物理法則の選定、適用方法、組み合わせ、結果に対する予想など細かな部分まで理解しておくと応用が利きます。その応用は他の単元あるいは科目でも同じように利くので、指数関数的に得点が伸びます。問題のパターンを覚えるより、はるかに効率的です。

一つ一つの基本的な課題を時間をかけてじっくりと理解し、わからない部分をなくすというメンタリティーあるいは問題に対する態度は、短期的には不利なのですが、長期的には有利ということです。長期的な利益を見据えて学ぶという戦略は現在の学校教育では割を食ってしまうわけで、プログラマ向きのメンタリティーを持つ人々が割と冷遇されている理由なわけです。冷遇されているので、そういう人たちは目立たないので、実態がわからず、わけのわからない教育改革がなされているんだと思うのです。

プログラマは効率を重視します。掛け算の効果を熟知しています。効率20%アップと50%アップの2つがあったら、$20+50$の70%ではなく、$1.2\times 1.5=1.8$の80%アップになることを知っています。最初の経験を生かして2回目に20%アップ、3回目でさらに50%アップと段階的に効率アップするより、最初の課題が遅れても最初に80%アップまで効率化すると、最初の課題は時間がかかっても2回目以降は爆速になることを知っています。そして、効率化はやっつけ仕事より常に有利であることを知っています。だから、最初に時間をかけて学ぶことは無駄にはならないと知っています。そういうメンタリティーを持っているということがプログラミング適性です。そしてそういうメンタリティーはプログラミングの経験を積み重ねていく過程でさらに強化されます。


学生にプログラミングを指導する苦労

僕は研究室の学生にプログラミングを指導することがあります。必ず本人の意思を確認し、適性を見ながら指導内容を決めます。なるべくプログラミング以外の要素を多く設定し、その間にプログラミングスキルの熟成を待ちます。

プログラミング言語の文法に関する学習をなるべく少なくします。高校の時の英語の先生が変わった人で、大阪大学の英文科卒業だけど、英会話はできないと公言してました。でも、文法は自信があるとも言ってました。そして文法は大事だけど文法を知っていても英語は使えないと自身の経験とともに教えてくれました。同様にプログラミング言語も文法を勉強してもプログラムは書けません。プログラミング言語も英語と同様に言語の側面をもつので、使わなければうまくなりません。文法を学ぶというのはその言語を使うこととは違うのです。

ChatGPTは使ってもよいですが、参考にとどめるべきです。ChatGPTの出力するコードは簡単なものなら動作しますが、ちょっと複雑なものになるとすぐに誤動作します。想定している動作をしない場合に、どこがダメなのか特定する能力がないと、すぐに行き詰ります。どこがダメなのか特定するには、コードを読み解いて、動作を追う技術が必要です。読み解いた動作と想定している動作の違いを分析し、想定している動作になるようにコードを書き換えます。これは紛れもなくデバッグ作業です。プログラミングスキルが中級くらいだと、デバッグがプログラミング時間の大半を占めます。ChatGPTは100行のコードを楽々出力してくれますが、その中には複数のバグが必ず混入します。そのバグを取り除く作業は自力で100行書くよりおそらく時間がかかります。他人のコードを読み解くのは初心者にはつらい作業だからです。さて、あなたはChatGPTを使いますか?

結局のところプログラミングスキルの向上にズルはできません。AIを使っても結局は自力の勝負。時間をかけてトレーニングしないと能力の向上はありません。常に学び続ける必要があるのです。そのためには学び続けることを苦にしないメンタリティーが大事です。学びを行動原理に組み込むというのが早道だと僕は思っています。あらゆる行動・結果から学びを得るという貪欲さが大事だと思います。学ぶことは苦痛を伴います。放っておくと人は学ぶことを避けるようになります。学びに価値を認め、喜びを見つけることができる人は何事にも適性があると思います。学びに価値を認め、喜びを見つけるというのは能力ではなくて、むしろ性格の問題です。つまり、プログラミング適性は性格に依存する、ということです。QED。






2025年2月6日木曜日

やっぱり小学校の英語教育の必修化は失敗だったみたい

 ヤバいネット記事を見つけた

https://news.yahoo.co.jp/articles/b9f03a7e060e2987eedb37b6ad12481042b33c7c

深刻な学力格差、英語嫌いの子が増えた根本原因 英語教育学の専門家が戦慄した調査結果の数々

小学校の英語教育の効果を調査した結果報告と分析。要点をまとめると、

  1. 小学校6年生の英語嫌いの割合が、20%から30%に増加した
  2. 高校入試時点での英語の成績は二極化している
  3. 中学校までで習う単語数が倍増して、中学校での落ちこぼれが増加した
  4. 中学校の英語教員の70%は教科書が難しくなったと感じている
  5. 分厚くなった教科書を履修するために、昭和時代のような一斉授業形式に戻った

どれもヤバい内容で、ジョークなら面白いですむけど、子供たちが現在進行形で犠牲になっているというのはあまりにも悲劇だ。小学校、とくに低学年での授業では、勉強をさせるというよりは、その科目を好きになってもらうというのが最も重要だ。勉強を教えようとしても子供が嫌がってまったく教えられないというのは、子育ての中で何度も経験した。そういう意味で、項目1は罪深い。第一目標が失敗に終わっている。

「使える英語」を目指すなら、語彙を増やすことは重要だ。実際、中学校までで習う単語数が1200語から2200語に増加したそうだが、まだまだ足りない。日常会話が可能なレベルでは5000語必要というのが常識だからだ。まだ半分。高校でさらに倍増というのが目論見だろう。でもそれは無理だ。現状、高校卒業時点でおよそ2500語くらい。しかも、辞書の第一義との1対1対応のみ。そりゃ、英語が使えないはず。それを何とかしようと、無理やり語彙量を引き上げるという計画だったのだ思われる。見事に失敗している。

語彙を増やすために教科書が分厚くなって、授業時間が足りないので、マスエデュケーションに逆戻りって、制度変更する前に予想された事態のはず。文科省の役人は頭が悪いようだ。知ってた。


テストの問題が指摘されている

小学校での英語必修化では英語が成績評価の対象になる(必修化とはそういうこと)ため、小学校5年生からは英語のテストが実施されているそうだ。これが英語嫌いに拍車をかけていると指摘されている。僕も英語のテストには反対の立場だ(英語のテストを廃止してみる?の記事)。

さらに記事では、増加した英語嫌いの状態で中学校に上がるので、中学校の英語の先生はパニック状態だという指摘がされている。中学校の先生からすると、小学校で英語を少し学んでくるので楽できそうだと期待していたら、最初から英語嫌いの子供がやってきて、むしろマイナススタートという地獄絵図。さらに内容が増えたので、子供たちに手がかけられず英語嫌いは悪化の一途。崩壊寸前?いやぁ、見事な大失敗。

パソコンやスマホを活用したマルチメディア教材の導入で学習効果を上げようという目論見も、「近年の研究では、スマホやパソコンによる学習は脳が活性化しにくく、記憶定着率が低いことが指摘されている」とあり、万事休す。

最後は、

「望まれる外国語教育改革は、過重なノルマや数値目標で子どもを追い立てることではない。すべての子どもに外国語を学ぶ喜びをもたらし、「ことばの力」と「協同する心」を育てることであろう。」

と締めくくっており、指摘項目1がそもそもの問題だという論調。僕もそう思うよ。


悪いのは誰か?

教育制度改革というのは影響範囲が大きい(1000万人ちかい教育年齢人口全体に波及する)ので、大きな改変は慎重になるべきだ。教育は本来は年次進行すべきで、小学校1年生から高校3年生までを文科省の直接管轄するなら、改革の効果は12年後にしか評価できない。途中修正が極めて難しいというのが教育制度だ。ゆとり教育は導入にも廃止にも数年かかっており、脱ゆとり世代は今ようやく社会に浸透してきたところだ。

教育制度改革は範囲・時間ともに大がかりにならざるを得ないので、小規模試験を実施して、問題点を事前に修正しなければならないはずだ。その小規模試験をしているのは、主に教育大学ということになる。

教育大学では、大学の教員たちが学校教育を改善する方法を日夜研究している。逆に言うと教育改革について何も提案できないようであると仕事してないとみなされてしまう傾向にある。研究の中では様々な試行錯誤が行われ、その時の実験、動物に相当するのが教育大学附属小中学校の子供たちということである。

教育大学付属小中学校は長期間にわたる一貫教育が行われる。しかも国立なので、しばくよりも学費は低くお得ということで相当な人気になっている。しかしながら、あまりに先進的な教育は保護者からの評判が悪いこともあって、稀に問題になっている。教育大学付属小中学校で行われる実験的な教育の試行錯誤は成功が保障されていないので、まあまあの頻度で失敗していると思われる。ところが教員の評価は失敗すると下がって、失敗は隠蔽され、あたかも成功したかのように報告がなされることになる。そういった玉石混交の教育改革案が文科省に奏上されることになる。

文科省の教育関係の役人は教育制度の改革に成功すると評価が高くなるので、常に教育を回復したいと計画することになる。教育大学から上がってくる報告書を見て、良さそうなものピックアップして採用することになるだろう。

そのような教育制度改革案は教育大学ですでにパイロット試験が行われているので、本当言えば問題点の洗い出しとかそういうものが済んでいて、拡大試験をしなくても安全に施行できると思っても仕方がないかもしれない。あるいは拡大試験をしているのかもしれないが、拡大試験には相当な予算を使うことになるので、試験結果が悪い場合に計画を白紙撤回するというのは非常に難しい。その結果、多少の問題があったとしても、目をつぶって思い切った教育制度改革が行われることになるのだろう。

悪いのは教育の研究者、文科省の役人。被害者は子供たちである。


わずかな光明

話を教育全般まで広げてしまうとまとまらない感じなので、英語教育に絞ると、リンクの記事には少しの光明が見いだせる。

  1. 英語教育において重要な指標として、英語が嫌いかどうかが重要
  2. 小学校英語にテストを導入したことが「英語嫌い」のきっかけになっている
  3. タブレットなどの利用は効果を期待できない

語学に限らず、勉強の対象を好きになるということはとても重要だ。特に語学はその傾向が強い。しかも、特定の言語を好きになる理由は、言語そのものへの興味だけではなく、その言語がもたらす利益の側面も大きい。外国語の習得によって、その言語の話者たちとコミュニケーションが取れるようになるというのは、昔からある語学習得の利益であり、特に、特定の人(友人・恋人など)との会話のために言語を学ぶケースも多い。

現在、日本語は空前の人気を誇っており、外国人はこぞって日本語を勉強している。理由はマンガやアニメといった日本の誇るコンテンツを楽しむためである。外国語文学の研究者も同じような理由で当該言語の学習を欠かさない。語学は他の教科と異なり、実用上のメリットがはっきりしているということがポイントだ。

英語を好きになってもらうために、英語話者と友人になるとか、英語コンテンツを視聴するというのが一つの方法になるだろう。インターネットの普及により、遠隔地との会話が簡単になっているので、これを利用しない手はないと思う。海外の学校と会議システムでつないで垂れ流しておくだけでよい気がする。

英語テストが英語嫌いの原因であるというなら、英語テストをやめてしまう、あるいは形式を大幅に変更するとよいだろう。音楽、美術、体育など、多少の好き嫌いはあるけど、「やりたくない」ほど嫌いな人はほとんどいないはずだ。多少出来が悪くてもだれも文句を言わない。英語もこれらの教科と同じような形式にすればよい。すくなくとも、自由に会話できるレベルに到達するまでは。

タブレットなどを使った動画視聴の活用は良いと思うが、それに頼るのは良くないのだろう。AIを使った英会話学習が少しずつ進んでいて、確かにAIは英会話の練習にとても良いように思う。電子機器を用いた学習を何らかの形でモニタリングできる仕組みが必要に思う。

少し話は変わるが、最近、「ディスレクシア」という言語障害が学校現場で認知されており、対応が進んでいる。ディスレクシアとは、知能に問題がないのに、文字が書けなかったり、読めなかったりする言語障害である。文字が書けないというのは、鉛筆等を動かす運動機能と言語機能の連携がうまくいかないというケースが多いらしく、文字は書けないけど、タイピングはできる、という場合が多い。そのため、高校などではタイピング専用端末(基本的にポメラ)を使っていて、大学入試でも使いたいという申請が結構な頻度である。基本的に許可しないのだけど、その理由は不正の可能性を排除できないということである。電子機器の場合、ソフトウェアに手を入れられると不正を見破ることが極めて困難になる。かといって、大学側で端末を用意すると、端末購入費がかかるうえ、受験生がその端末に慣れていないと不利になる。大学としてはそのような端末は入試の時のみに使う可能性があるだけの物品であり、1年以上倉庫にしまっていて、いざ使おうと思ったら故障しているなんて場合も想定される。買い替えるにしても、多分特注のマイナーな端末は受注生産に違いなく、調達に数カ月かかって、入試に間に合わないなんて事故も予想される。潤沢に資金があればよいけど、文科省は大学の予算を削りに削って大学にお金はない。

入試に限らず、電子端末による試験を導入する方が効率的だと思うのだが、カンニング対策が問題になる。端末を試験にだけ使うのはもったいないので、講義などでの活用を当然考える。それなりの機能を持つ電子端末はすべからくネット接続できるようになっている。講義で使うのならネット接続は必須である。でも試験の時はネット接続はまずい。ネット経由のカンニングに対して有効な手段があれば問題なのにね。

ディスレクシア対応を大学が断るのは「教育の機会均等」という日本国憲法の精神に反するので心苦しく思っている。だから、文科省にカンニングできない電子端末を規格化してもらうのが最も良い方法だと常々上奏している。そういうものがあれば、通常の授業や試験でも活用できるはずだ。ま、文科省はそんな能力がないので、全然対応しないだろうけどね。

ともかく、学校における英語教育、とくに低年齢層については、制度改革の効果の指標として「英語好き」「英語嫌い」を筆頭に挙げてもらうのが最も良いと僕は思っている。テストの成績は、勉強時間×集中力に比例する。「好き」であれば、時間も増えるし、集中も増す。そんな簡単なことがわからないなんて、信じられない。


2025年1月29日水曜日

レオロジー測定は分光法か?

まず謝罪、そして問題提起

耳目を集めるためにあえてキャッチーなタイトルを付けたことを最初に謝罪します。でもそれは「分光法」という皆が当然理解していると思っている概念に対して、ちょっとでもよいので疑問を持ってもらいたいからです。常識を疑ってみるというのはとても大事なことだと僕は思っています。かのアインシュタインは浸透圧という現象に疑問を持つことで、ブラウン運動を解き明かしました[例えば、米沢富美子, 物理学OnePoint 27 ブラウン運動, 共立出版, 1986]。同じようなことを「分光法」という概念に対して示そうというのがこのエッセイの目的になります。到達点がどこなのか知りたい人は最後まで読んでね!

レオロジーというのは液体の性質である粘性と固体の性質である弾性を区別なく取り扱う力学である[例えば、日本レオロジー学会編, 新講座レオロジー, 日本レオロジー学会, 2014]。流体力学や弾性理論に比べると完成度は低いが、現実の物質・物体はすべからく液体と固体の性質を少しは併せ持っているので、現実の物質・物体をあるがままに取り扱うという意味では究極の力学と言える。特に、粘度の高い液体状物質を取り扱う際には必須で、高分子材料やコンクリートの研究では必修科目となっている。レオロジーにおいて力学情報を得る際、試料に周期的なひずみを加え、その際に発生する応力を波として測定するということをしばしば行う(ひずみと応力の役割は逆転させてもよい)。入力ひずみがサイン波の場合、出力に相当する応力もサイン波になるが、振幅と位相が違ってくる。出力波の振幅と位相から弾性率を複素数として算出する。このような測定を行う装置はレオメーターと呼ばれている。

こうしたレオロジー測定は「分光法」とはかけ離れているように見える。「光」の要素はないし、複素数を値とする分光法はほとんどない。だから、「レオロジー測定は分光の一種だ」、と言うとレオロジーの専門家でも「え?」という反応になる。このエッセイでは「分光法」の概念を再定義することでレオロジー測定などが広義の分光法に属することを示そうと思う。再定義された分光法は「エネルギー保存」の自然な帰結であり、エネルギー保存則に基づくあらゆる議論に影響を与えると考えられる。これは世界の解釈に新たな視点を与えるはずだ。

レオロジー測定と分光法の隔たりは大きすぎるので、とりあえず一つ共通点を示しておこう。複素数の弾性率は入力波の周波数に依存性を持っており、測定の際は入力波の周波数で掃引することになる。横軸に周波数、縦軸に得られ弾性率の実数成分と虚数成分をプロットして表示するというのが標準的なデータ(グラフ)である。これは粘弾性スペクトルと呼ばれる。分光データも通常スペクトルと呼ばれるので、データの表示に関してはレオロジー測定と分光には共通する部分がある。レオロジー界隈の共通認識としては、データは分光法に似ているが、測定は分光法ではない、というところだろうか。


分光法という概念に疑問を持った日

1990年代前半のある日、僕は研究室に配属されたばかりの学部4回生だった。研究室にはX線小角散乱法(Small-angle X-ray Scattering, SAXS)の装置があり、研究室の学生としてその勉強をしていた。SAXSは単色のX線を細く絞ってビームとして試料に照射し、散乱角が10度以下の低角度範囲の散乱強度を収集する実験技術である。低角度での測定は技術的に難しく、デリケートな調整が必要なやっかいな装置である。当時京都大学にいらっしゃった松重和美先生がSAXSと等価なデータを波長掃引によって得るという装置を開発し、その論文を目にした[堀内俊寿, 松重和美: 理学電機ジャーナル, 21, 19(1990)]。SAXSのデータは横軸に散乱ベクトル、縦軸に強度を取ってプロットするのが標準である。散乱ベクトルは$q=2 \pi \sin {\theta}/\lambda$であらわされ、$2\theta$が散乱角度、$\lambda$は波長である。散乱ベクトルは$\theta$が小さい小角散乱の範囲ではおおむね散乱角度に比例する。松重先生は、SAXSデータの横軸を散乱角度ではなくて、波長で変更するということを行ったということである。波長で掃引するというのは、要はプリズムによる分光をX線領域で行った解釈できる。つまり、SAXSは分光法の実験技術でも実行できることを実際に示しているということである。松重先生の研究にとても感銘を受けたが、この実験技術にはいくつか欠点があり、残念ながらマイナーな技術にとどまっている。

2000年頃のある日、僕は理化学研究所播磨研究所でポスドクをしており、SPring-8の小角散乱実験ハッチでビームラインサイエンティストもどきの仕事していた。当時のボスの藤澤哲朗先生が朝の仕事始めに「さ、今日も分光器の調整しようか」と何気におっしゃったのを聞いて、僕は違和感を感じた。藤澤先生の言う「分光器」はSAXSの光学系のことで、彼は散乱実験の装置のことをさも当然のように分光器と呼んだのである。散乱・回折では散乱強度の角度依存性を測定するのであって、プリズムのような分光とは似ていない。とっさに松重先生のお仕事を思い出し、実際に分光の実験技術で置き換えることも可能であるのだから、散乱・回折実験は分光と呼んでもよいのかもしれないと、その場では納得した。

2005年頃、僕は大学で教鞭をとっており、計算機の演習を担当していた。化学系なので、有機分子を計算機上で描くソフトウェアの指導も含まれていた。そういったソフトウェアでは有機分子の立体構造を分子力学法(Melecular Mechanics, MM)で計算して表示するという機能が実装されていることが多い。その紹介をするのが演習内容だった。そのソフトウェアではさらに分子動力学法(Molecular Dynamics, MD)を用いて赤外吸収スペクトルを定性的に描く、という機能があった。定性的なので、ちょっと違和感があるグラフしか出てこないが、ピーク位置はまあまあの信頼性があるという触れ込みだった。MD計算で分光法の予測ができるということに僕は軽いショックを受けた。二つの分野の関連性が良くわからない。僕な中にもやもやしたものが生じた。

これらのエピソードは「分光法とは何か?」という疑問を僕の中に残し、その後20年近くにわたる考察のきっかけとなった。


普通の分光法では何を測定しているのか?

分光法としておそらく最も典型的なのは赤外吸収分光法(Infra-red Spectroscopy, IR)だろう。IRでは赤外線を試料に照射し、赤外線が試料を透過する際の透過率を測定する。赤外線の透過率は強い波長依存性を持つ。そのため、波長に対して透過率という測定値をプロットすることになる。IRでは波長をそのまま横軸にはせずに、波長の逆数である波数を横軸にとり、透過率あるいは透過率の対数を縦軸にとってデータをプロットする。このプロットは赤外吸収スペクトルと呼ばれる。

IRでは試料中の様々な分子内振動の有無と量の情報が得られる。この情報はとりわけ有機分子の場合に有用で、当該分子内の特定の化学結合や化学構造の有無などが議論できるようになる。特定の化学結合や化学構造がどの波数で吸収を起こすかという情報はデータベース的に調査・整理されており、そのデータベースと比べることで、測定対象の分子の特定まで至ることも不可能ではない。また、前節での触れたようにMDを用いて大雑把なIRスペクトルを予測することもできる。

有機化学分野でIRと並んでよく利用される分光法に核磁気共鳴法(Nuclear Magnetic Resonance, NMR)がある。NMRでは試料は強磁場中に静置され、強い電波パルスが照射される。パルス照射の直後から試料は磁場の振動を放射するようになる。この振動を試料の周りに配置されたコイルで検出することで、NMRスペクトルという情報を得ることができる。

NMRは厳密には共鳴現象ではあるが、NMRスペクトルは系中に存在する化学構造(主に水素に関連する化学構造)による「吸収」と磁場信号の「放出」を反映している。横軸はppmという単位だが、これは検出される磁場信号の周波数から算出されるので、横軸の実態は周波数である。

IRやNMRのように分光データの横軸の実体は周波数や波長であり、そのようなデータのグラフは一般的にスペクトルと呼ばれる。横軸が周波数や波長など様々なのはそれぞれの測定の歴史を反映している。ただし、真空中の光速が定数であることから、波長・周波数・波数の間の変換は一義的である。つまり、横軸が波長・周波数・波数のいずれであってもデータの本質は変わらない。なので、横軸の定義に揺らぎがあったとしても、すべてスペクトルと呼んでも構わないことになる。より物理学寄りの議論では横軸としてエネルギーを用いることが多い。エネルギーは$E=h\nu$の関係から振動数と対応付けられるので、波長・周波数・波数との相互変換が可能である。

IRでは赤外線、NMRでは電波を用いるという違いはあるが、いずれも電磁波の一種であり、「光」に分類されるものである。光による吸収を調べるという意味でIRとNMRはともに「分光法」だと解釈できる。しかしながら、小学校の教科書にあるような分光の説明は少々異なる。「プリズムに白色光を入射すると、波長ごとに分かれて虹色が現れる。この現象を分光と呼ぶ。」とある。プリズムに用いるガラスの屈折率には波長依存性があり、その波長依存性を強調する形状がプリズム(三角柱)である。白色光には様々な波長の光が含まれているのだが、それぞれの波長の光に分けることが分光であるという説明は、言葉と現象が1対1に対応しており、説得力がある。そしてこの説明の中に「吸収」という概念が一切登場しないことに注意してほしい。

最も単純なIRでは赤外線光源を赤外線用プリズムで分光し、試料に照射する。あるいは白色の赤外線を試料に照射し、透過した赤外線をプリズムで分光する。なので、分光という技術を使って吸収を測定するというのがIRの基本と言える。単なる分光ではなく、それを利用して赤外線領域の吸収を測定する方法なので、IRは赤外吸収「分光法」と、「法」がついている。英語ではspectroscopyで、「y」で終わることで「法」の意味が付与される。

IRではもはやプリズムが不要だったりするので、実際の測定は分光しないことも多い。つまり、分光法ではあるが、分光は使っていないということである。なので、分光法では分光は必須ではないというややこしいことになっている。

NMRでは最初からプリズムの出番はない。計測された磁場の信号はフーリエ変換を通して周波数に分解され、スペクトルに加工される。NMRも分光法に分類されることから、分光法とは測定値を周波数・波数・波長・エネルギーの関数として整理する技術と解釈した方がよさそうだ。SAXSは波長によって整理することも可能であるのだから、「SAXSは分光の一種であり、SAXSの装置は分光器と呼んでも不自然ではない」かもしれない。同じ理由で、測定値である複素粘弾性率を周波数で整理するレオロジー測定も分光法の一種であると解釈してもよいかもしれない。いや、そこまで極論するのはちょっとやりすぎな気もする。

このセクションをまとめると、分光法で得られる情報の横軸は、周波数・波数・波長・エネルギーのいずれかで、そのような情報(グラフ)はスペクトル(分光データ)と呼ばれている、ということになる。


電磁波の名前

IRやNMRの話の時に、赤外線も電波も電磁波に分類されるので広い意味では光であることを指摘した。電磁波が波長によって呼称が変化することは周知の事実である。ではなぜ呼称が変化するのだろうか?

Maxwellの電磁方程式を解くことで電磁波という概念が導かれ、それは光、特に可視光をうまく説明した。同時に電磁波の波長を変えることで、電波も電磁波であることが明らかになった。つまり、可視光と電波は元々は別物と考えらえれていたが、波長の違いとして統一して解釈できるようになったという経緯である。「電磁波は波長が違うと呼称が変化する」というのが答えのように思えるが、「波長が違うとなぜ呼称が変化するか」の答えにはならない。問いと答えがループしていて、根本的な答えには決してなっていない。

電波、赤外線、紫外線という言葉と概念は、電磁波という概念の前に存在していた。だから異なる呼称は歴史的な経緯ともいえるが、異なる呼称を使用するのが「当然」と考えられていた理由はそれらが別物と解釈されていたからだ。なぜ別物と考えられていたかと言えば、性質が違うからだ。呼称問題はこれで解決となるが、最後に「波長が変わると性質が変わるのはなぜか?」という問いが残る。この問いは少しの考察で到達できるとても根源的で哲学的な大問題なのだが、実際にはほとんど語られることはない。

科学とくに物理学ではなるべく少ない仮定で世界を解釈するというのが命題の一つである。可視光と電波の統合は大勝利である。しかし、当時の多くの学者は、とてもびっくりしたはずだ。まさか可視光と電波の実体が同じものとは思っていなかったに違いない。でなければ、可視光と電波を総称する固有の名前が存在したはずだ。電磁波という概念の大勝利に伴う万能感によって、些末な問題は吹き飛んでしまうものだ。

その些末の問題、可視光と電波を別物とみなしていた理由は簡単で、それらの性質が大きく異なるからだ。電波は電気回路から放射され、アンテナ(電線)で受け取ることができる。厳密には可視光でも似たような現象は生じるが、その現象は規模が小さいので、その存在を知っていないと調べようとも思わない。光は紙や木の板で遮ることができるが、電波はそれらを簡単に透過する。可視光と電波はなぜこんなにも性質が違うのだろうか?性質が違うから、可視光と電波は別物と考えられていて、それは異なる呼称を持つに至った理由として自然である。

可視光の周辺には赤外線と紫外線がある。いずれも目には見えない。なので、目には見えなくて可視光より波長が長いものを赤外線、短いものを紫外線と呼んでいる。光をプリズムで分光したとき、赤外線は赤い光の外側の場所に到達する目に見えない光として名付けられ、紫外線は紫の光の外側の目に見えない光として名付けられている。目に見えないという基準は実は物理学的にはあまり意味はない。多くの昆虫は紫外線を見ることができ、一部の蛇は赤外線を感知することができる。つまり、紫外線や赤外線が見えないというのは人間の生物としての能力に依存しており、別の生物では定義が変わってくる。つまり、生物種依存性であって、それは物理学が感知するような話ではない。

ちなみに、数学は「宇宙の法則が変化しても正しく」、物理学は「宇宙のどこでも正しく」、生物学は「地球上では正しく」、人文科学は「人間(文明・社会)に関しては正しい」ということで分類される。生物種に依存する議論は物理学の範疇にはないということである。

とは言うものの、赤外線は当たるとあったかくて、日焼けしない。逆に紫外線は火傷や日焼けをするけど、あったかくはない。そして可視光はあったかくもないし日焼けもしないが、目で見ることができる。明らかに性質が異なる。この性質の違いがあるからこそ、紫外線や赤外線の定義が生物種依存であるにもかかわらず、生物学以外の文脈でも受け入れられている。では、紫外線や赤外線の性質の違いは何に由来するのだろうか?電波との違いも同じように説明できるのではないか?もっと波長の短い領域、X線やガンマ線も同じように説明できるかもしれないと考えるのはやりすぎだろうか?

結論から言えば、電磁波は波長によって相互作用する相手が変化し、それゆえ性質が変化したように見え、それに応じて呼称が変化するということである。IRで用いられる赤外線は特に有機化合物中の分子内運動と相互作用する。赤外線にさらされた分子内運動は赤外線を吸収し、エネルギー保存則によって当該分子内運動が激しくなる。分子運動は熱であり温度であるので、赤外線を吸収することで有機化合物は温度が上昇する。その有機化合物が僕たちの体を構成するものであれば、僕たちはあったかいと感じる。

紫外線は波長にもよるが、二重結合と相互作用しやすいと考えるとよい。紫外線を吸収した二重結合はエネルギー準位が上がって、化学反応しやすい活性化状態に変化したり、結合が切れやすい反結合性軌道に変化したりする。これが僕たちの体で生じると制御されていない化学反応を生じ、体を傷つける。この現象は火傷と同じような症状を引き起こす。体にとっては害なので、体の防御反応として紫外線をシールドするための色素が形成される。これが日焼けである。紫外線で生じる反応は火傷と同じ症状なので、紫外線が当たると熱も感じることになる。しかし、これは生物的な反応なので、対象が生物でなければ熱を感じないし、その熱は化学反応の熱であって、物体を温めるようなものではない。ということで紫外線は暖房には使えない。

紫外線や赤外線が目に見えず、可視光だけが目に見える理由は、我々の視細胞の中にある色素の特性によるものである。人間の視細胞中の色素(オプシン)は3種類あり、それぞれ赤・緑・青の光に対するフィルターの役割がある。フィルターを通した光をレチナールという分子が受けると、色素中の特定の二重結合がシス・トランス転移を起こす。色素が構造転移すると視細胞が活性化し、脳に電気信号を送る。このメカニズムによって我々は視覚を得ている。赤外線や紫外線が見えないのは、レチナールの共役系がいい感じになっていて、可視光域(主に赤色)に対してシス・トランス転移する容認っているからである。おそらく、赤外線は量子力学的な理由で構造転移を起こさないし、紫外線はシス・トランス転移を引き起こすにはエネルギーが高すぎるのだと思われる。ちなみにオプシンはタンパク質であり、普通の人は赤青緑の3種類持っている。3種類あるから、光は「三原色」であり、色域チャートは三角おにぎりみたいな形をしている。

電波は金属などの中にある自由電子と相互作用する。金属中の電子は、複数の金属原子と共有されたエネルギー準位を持っていて、エネルギー準位間のギャップがとても小さい。ギャップが小さいので熱エネルギーのようなちょっとしたことがきっかけで金属原子の束縛を離れ、移動できるようになる。これが自由電子である。自由電子が熱的に励起されて移動することで、自由電子は熱のキャリアとして機能する。そのため金属の熱伝導率は高くなる。また、光が金属に当たるだけで大量の自由電子が発生する。これは金属光沢の起原となっている。白川英樹先生が実験失敗に思えた黒光りするポリアセチレンの小片を見て導電性を測定してみようと思い立ったのは、ポリアセチレンの小片に見られた金属光沢から自由電子の存在を見抜いたからである。自由電子は電気のキャリアなので、自由電子の存在は高い導電性を示唆するからである。

後述するが電波の持つエネルギーは実はとても小さい。とても小さいのでほとんどの物質と相互作用できない。唯一といってよいくらいの相互作用対象は金属中の自由電子である。なので、電波が金属に吸収されると金属中の自由電子を揺り動かし、電位を発生させる。こうして発生させた電位を検出することで、我々は電波を情報のやり取りに利用している。

まとめると、電磁波の名前が変化するのは、周波数によって相互作用する対象が変化するからだ、ということである。


相互作用の周波数選択性

電磁波の波長あるいは周波数が違うと生じる「現象」が違うようだとわかる。「現象」と波長あるいは周波数の関係は「個別案件」なのかそれとも法則性があるのだろうか?当然、法則性があったら良いな、と思うわけである。

公園の遊具の定番であるブランコで遊んだことのない人は皆無だろう。小さい子供は体重移動をうまく行えないので、別の人に背中を押してもらってブランコで遊ぶことになる。背中を押してもらうとブランコの振幅が増加する。ブランコにおいて振幅が増加するとは、ブランコの振動に関する運動エネルギーが増加したとみなすことができる。増加した運動エネルギーの源は当然背中を押す行為である。つまり、ブランコの背中を押すという行為は、背中を押す人からブランコに乗っている人へのエネルギー移動であると解釈できる。これをもっと物理学の言葉を使って表すなら、背中を押す人とブランコが相互作用した結果、エネルギーが移動した、となる。

ブランコの背中を押す際に大事なのは、ブランコの振動に合わせてタイミングよく背中を押すということである。エネルギーの受け手であるブランコの振動数と、エネルギーの源である背中を押す行為の振動数が一致するときに、エネルギーの移動効率が最大になることは自明に見える。このような現象は物理学では共鳴と呼ばれている。

このブランコの例に似たような現象はSPring-8などの放射光における電子線の加速に利用されているRF加速器の原理にもみられる。RF加速器では高速で移動する電子に周期的な電場の振動を加えると、タイミングが合っていれば電子が加速される。電場の波に対して電子がサーフィンする感じで、電子は加速される。SPring-8の普及棟という一般向け啓蒙施設に模型があって、RF加速器の原理を体験できるので、ぜひ体験してほしい。電場の波のタイミングが合わないと電子は加速しない。これはブランコで背中を押すのと似ている。

赤外線は電磁波であり、電場の振動である。原子や電子は電荷をもっているので、赤外線の電場の振動のタイミングが合えば、RF加速器と同じような原理で原子や電子は加速される。物質、特に有機分子中では、原子は伸縮とか変角とかいった特定の分子内運動をしている。その運動と電場の振動のタイミングが合うと分子運動が加速される。分子運動が加速されるということは、その分子運動のエネルギーが増加するということ。つまり、電場(赤外線)から物質にエネルギーが移動した=赤外線が物質に吸収された、となる。IRはこうしたプロセスによる赤外線の吸収を観測している。赤外線の電場の振動数$\nu$は、$\lambda\nu=c$であるので、波数は$\lambda^{-1}=\nu/c$である。分子運動の振動数が一致するときにエネルギーの移動確率が最大になる。

光は量子化されており、エネルギーは光子エネルギーの単位でやり取りされるというのが原則だ。なので、赤外線の吸収においても、1回の相互作用において、赤外線の光子エネルギー$h\nu$の単位で分子運動にエネルギーが移動する。この現象は、分子運動には固有の振動エネルギー$h\nu$を単位として相互作用する、というように見ることもできる。振動数の一致で説明するか、エネルギーの一致で説明するかの2択ではなく、(特に赤外線の領域では)どちらの解釈でも本質は変わらない。振動数が一致するときに$h\nu$を単位としてエネルギー交換するのだから。

かくして、ブランコの例にあるように振動数の一致による相互作用確率の最大化という現象は、エネルギーの一致による相互作用の最大化と解釈できるということになる。これはあたかも量子力学において、エネルギー準位による相互作用の選択と同じようだ。量子力学ではエネルギーを与える側が受け取る側よりエネルギーが小さいと相互作用が全く起こらないという非対称なルールが追加されるという点が異なるが、本質はほとんど変わらない。振動数の一致による相互作用は、厳密には「共鳴」と呼ばれることが多い。

相互作用の確率は「振動数が一致」=「エネルギーが一致」=「波長が一致」するときに最大になるというが極めて一般的なルールであることがわかる。なので、電磁波の呼称に波長依存性があるのは、この相互作用確率に応じて相互作用に関係する事象の選択が生じていることが根本的な理由と言える。

赤外線領域に関する相互作用は、分子内振動のもとになっている原子間の結合力と結合している原子の重さによって決まる固有振動の振動数が、ちょうど赤外線の振動数に近いため、赤外線は分子運動によって吸収される。紫外線領域では二重結合あるいは共役系が持つエネルギー準位がちょうど紫外線の光子エネルギーに一致するので、これらの化学結合が紫外線をよく吸収し、エネルギー準位が上がる。このプロセスは量子力学に従うので、光子エネルギーが低い赤外線では相互作用が起こらない。逆に、紫外線の光子エネルギーは赤外線と相互作用する分子運動とはエネルギーが大きく異なるので、相互作用確率が著しく低い。そのため、紫外線では物体を温める効果は期待できない。

X線くらい波長が短い=エネルギーが高いと、原子の周囲に強く束縛されている電子と相互作用できるようになる。もっとエネルギーが高いガンマ線は原子核と相互作用し、核化学的な反応を引き起こす。これはちょっとした核反応であり、化学的な方法では制御できないため、とても厄介である。

金属結晶では複数の金属原子が波動関数を共有し、エネルギー準位が細かく分割される。そのため、Highest Occupied Molecular Orbital(HOMO)とLowest Unoccupied Molecular Orbital(LUMO)のエネルギー差がとても小さくなる。本来はHOMOでじっとしているはずの電子は、ちょっとしたことでLUMOに上がってしまい、金属原子の束縛を離れて移動できるようになる。これが自由電子である。HOMOからLUMOのエネルギー差はとても小さいのでいろんな理由で電子が移動することになる。電波の波長はとても長く、時には数百メートルにもなる。振動数は小さく、エネルギーも小さい。エネルギーの小さな電波はこれまで議論してきた理由によって相互作用できる相手が多くない。そんな電波でも自由電子は相互作用できる。というか自由電子のエネルギー準位はちょうど電波くらいなのだ。電波は金属中の自由電子を移動させる。電子の移動は電位を生じ、その電位を計測することで僕たちは電波を検出できる。電波を受信するアンテナが金属なのはこうした理由による。

まとめると、相互作用とはエネルギーの移動現象であり、エネルギーの移動の確率は周波数∝エネルギー∝波数∝波長の逆数、に強い依存性がある、ということである。


異なる分光法が同じ情報を与える

X線の吸収分光の一つにX線吸収微細構造(X-ray Absorption Fine Structure, XAFS)がある。XAFSのデータは測定範囲等も含めて電子線損失分光法(Electron Energy Loss Spectroscopy, EELS)と等価であることが知られている。XAFSはX線を用いた透過吸収スペクトルである。IRのX線バージョンと考えてよい。物質内にX線の光子エネルギーと同じエネルギー準位が存在すれば、強い吸収が生じる。物質内のエネルギー準位はX線領域では、物質を構成している元素を強く反映している。さらにXAFSでは元素同士の結合に寄与するような最外殻電子のエネルギー準位の情報も得ることができ、測定対象の様々な情報が得られる。

一方、EELSは加速された電子(電子線)が物質と相互作用して、電子線の持つエネルギーの一部が物質に吸収される。その結果、電子線は物質に吸収された分だけエネルギーを失ってしまう。この失ったエネルギーをスペクトルとして表したものがEELSである。EELSは現象がやや複雑であるが、物質との相互作用は量子化されており、EELSは物質内のエネルギー準位を表すことになる。EELSで利用している現象は非弾性散乱の一種であり、この話を語りだすととても長くなるので、ここでは割愛する。

片やX線、片や電子線。片や単純吸収分光、片や非弾性散乱と、かなり違っているにもかかわらず、両者の測定データは詳細は異なるものの、等価である。特にX線領域での分光法ではこのような等価性が多く知られている。X線を入射して蛍光X線を観測する蛍光X線分光法、電子線を入射して蛍光X線を観測するエネルギー分散型X線分光装置(Energy Dispersive X-ray Spectroscopy, EDX、SEMのオプション検出器としてよく知られている)、X線を入射して飛び出てくる電子線を観測するX線電子分光法(X-ray Photoelectron Spectroscopy, XPS)、電子線を入射して飛び出てくる電子を観測するオージェ電子分光法(Auger electron spectroscopy, AES)。これらの測定データはほとんど同じような情報を与える。電子線を入射する場合、あるいは電子を観測する場合は概ね試料の表層の情報となるが、X線を入射してX線を観測する場合は、比較的試料内部の情報が得られる傾向がある。電子線は細く絞ることができるので、電子線を入射する場合には測定に空間分解能を期待できる。言い換えると、顕微鏡法と組み合わせることができる、ということになる。そうしたこまごました違いがあるものの、測定対象の構成元素に関する情報が得られるという点でこれらの方法は同じだし、横軸にエネルギーの単位である$eV$(あるいは$KeV$)を採用するという共通点がある。なぜこのような共通点を持つのだろうか?それは偶然か、必然か?

結論は簡単で、X線や電子線に関わらず相互作用の対象が同じだから、である。同じ相互作用の有無を見ていながら、結果が違う方が大問題である。ただ、一つ問題になるのは、エネルギーの源が電磁波や電子と全く異なる、ということである。

透過型電子顕微鏡は電子線の持つ物質波を光の代わりに用いて作られた顕微鏡である。光速に運動する電子は物質波を纏うようになるというのが高校物理での説明だ。この物質波を通して電子は光と同じように物質と相互作用できるというのが量子力学の考え方である。なので、相互作用する際のエネルギーの源は電子であっても光であっても構わない。もっと言えば、中性子などであっても構わない。もちろん、相互作用する確率の比例係数はちょっと違ってくるが、エネルギーの選択性は変わらない。深く考えてゆくと物質波とは何か?という問題にぶち当たるが、物質波の本質についての議論も長くなるので、ほかに譲る。

相互作用する際の原理のようなものが多少違っても相互作用する相手が同じならば同じ情報が得られる、という事例は普通の光の領域においても知られている。IRとラマン分光法で等価な情報が得られる有名だ。IRでは赤外線の吸収、ラマン分光法では可視光の非弾性散乱を測定している。どちらも光を用いた分光法であるが、波長が大きく異なる。また、ラマン分光法が用いる非弾性散乱という現象は原理がとても分かりにくい。

非弾性散乱は入射光が物質と相互作用して波長が少し長くなった光を散乱波として再放出する現象である。波長が少し長くなるとか、散乱派として再放出するという性質は蛍光ととても似ている。非弾性散乱が蛍光と異なるのは、入射光の波長選択性がほとんどないことである。ラマン分光法では試料に入射する光の波長は基本的に何でもよい。通常の実験条件であれば可視光域であればだいたい大丈夫で、試料の特性に応じて入射光の波長を調整することすらある。

光が物質と相互作用する通常のケースは、例えばIRのように、入射光の振動数と物質内の何らかの振動の振動数が一致する場合である。一致する場合に相互作用確率が最大になる。入射光の振動数が物質内の振動数より小さい場合には、その相互作用メカニズムが量子力学的であれば、相互作用確率が0になる。物質内の振動数の方が小さい場合には、入射光の振動数と物質内の振動数の差に概ね反比例するような確率で相互作用する。その相互作用では入射光から物質内の振動にエネルギーが移動する。相互作用する際のエネルギーの単位は当然物質内の振動のエネルギー準位であるので、入射光は物質内の振動のエネルギー準位(典型的には)1個分のエネルギーを失うことになる。光は量子化されているので、エネルギーを失うということは、光子で考えると振動数が低下する=波長が長くなることになる。この低確率で生じる振動数が不一致な相互作用を測定するのがラマン分光法である。相互作用に関与する物質内の振動がちょうどIRで観測されるような振動であるので、ラマン分光法のデータはIRのデータと互換性がある。

まとめると、分光法では相互作用する対象が同じであれば、測定方法が違っていても同じ情報が得られる、というのが割と一般的な法則である、ということだ。


「分光法」の再定義

これまでの議論から、分光法では(主に)光と物質内の振動要素との相互作用を、振動数・波数・波長・光子エネルギーなどを掃引して調査する、と総括することができる。しかも、振動数、波数、波長はすべて(光子)エネルギーに読み替えることができることから、分光法では相互作用に伴うエネルギーのやり取りの確率を測定しているのだと理解できる。逆に言えば、分光法とは相互作用の周波数(エネルギー)依存性を明らかにすることであると再定義できるだろう。

レオロジー測定では光は一切関与しないし、得られるのは粘弾性スペクトルであり、横軸は(角)周波数ではあるが縦軸は複素数である。まだ分光法とは隔たりがある。レオロジーの粘弾性スペクトルは、別名を緩和スペクトルと言う。緩和スペクトルという名称は粘弾性スペクトルを含むいくつかの測定において共通する名称である。

「緩和」という言葉には、何かが時間をかけて「減衰」する、というイメージがある。典型的な粘弾性スペクトル測定では、弾性率や応力の「減衰」を直接観測するわけではない(そのような実験方法も存在する)ので、緩和スペクトルと言う語は適切でない気もする。この議論を進めるには「緩和」という言葉を物理学の概念で再定義する必要がある。

「減衰」という言葉で思い浮かぶ現象の一つに、摩擦によって運動が停止する、という物理の大学入試でよく出てくる現象がある。物体が直線運動するときに摩擦が働くと速度が減衰し、運動が停止する。このとき、物体の運動エネルギーは摩擦を通じて失われ、基本的には熱として散逸する。

他の「減衰」の事例として、単振動しているバネ・おもり系が、空気抵抗やバネ内部の原子間の「摩擦」によって、振幅が小さくなる現象が思い当たる。空気抵抗も「摩擦」の一種なので、主に「摩擦」によってバネ・おもりの単振動が「減衰」すると言える。バネ・おもりの単振動では、バネの伸びによって生じる位置エネルギーとおもりの運動エネルギーが相互に変換され続けるが、減衰しない場合のトータルのエネルギーは一定である。トータルのエネルギーは概ね振幅の2乗に比例する。「摩擦」によって単振動が「減衰」する場合、振幅が徐々に小さくなるので、トータルのエネルギーは減少することになる。つまり、「減衰」では、摩擦を通じてエネルギーが失われるということである。

これらの事例を通じて、緩和≒減衰≒エネルギーが失われること、というイメージが湧いてくる。我々が日常的に観測している世界ではエネルギーは保存するので、エネルギーが世界から無くなることはなくて、「失われたエネルギー」は別の形態のエネルギーに変化しただけである。ここから、緩和≒エネルギーが移動すること、と大雑把に短絡することができるだろう。

レオロジー測定で得られる複素弾性率の虚数成分は、入力された弾性エネルギーの吸収を表すことが簡単な計算によって示されている。詳細は長くなるのでここでは割愛するが、複素弾性率の虚数成分を実数成分で除した値を$\tan \delta$と呼び、ちょうどこれは「入力された弾性エネルギーの何割を材料が吸収するか」という指標になる。つまり、レオロジー測定で$\tan \delta$を計測し、入力弾性波の周波数でプロットすれば、IRと同じように吸収スペクトルになっているということである。

レオロジーの分野では詳しく説明されることはないが、粘弾性スペクトルで観測されるエネルギー吸収のメカニズムは基本的に何でも良い、というのが研究者たちの共通認識になっている。エネルギー吸収のメカニズムに応じて特定の周波数での吸収が観測される。これはあたかも、通常の分光法における特徴と同じである。すなわち、「分光法では相互作用する対象が同じであれば、測定方法が違っていても同じ情報が得られる」「エネルギーの移動の確率は周波数∝エネルギー∝波数∝波長の逆数、に強い依存性がある」という特徴と完全に一致している。

さらに、レオロジー測定で得られる粘弾性スペクトルと同じ情報が、誘電緩和測定によって得られることが良く知られている。なぜそのような関係があるのかについてレオロジーの分野では詳しく説明されることはないが、レオロジー測定や誘電緩和測定が分光法と同じ特徴があると考えれば、すんなり腑に落ちる。誘電緩和測定で得られるデータは誘電緩和スペクトルと呼ばれ、粘弾性スペクトルと同様に実部と虚部のある複素誘電率のグラフになる。誘電緩和は試料の両側に電極を取り付け、片側にサイン波の電圧をかけ、反対側の電極の電圧を計測する。計測される電圧は入力のサイン波と比べて、振幅や位相が異なる。これを解析して複素数の誘電率を決定する。入力波の周波数を変えて測定を繰り返すスペクトルを得る。これはレオロジー測定とほとんど同じフォーマット持つことがわかるだろう。

高周波領域の誘電緩和測定では、「電波」を利用して測定が行われる。マイクロストリップラインという計測方法では、試料の片側に線状の電極を取り付けて(精度を求めて蒸着することが多い)、その線に周期的に変化する電流を流す。ビオサバールの法則に従い、電流は周囲に周期的に変化する電磁場(電波)を作り出す。その電場と試料(表面)が相互作用することで、電流に影響が生じる。その影響を配線の電位として計測する。解析することで、GHz領域の誘電緩和スペクトルが得られる。

マイクロストリップラインを用いた誘電緩和測定は電波領域の電磁波を利用した測定となっており、電波による分光法の一形態とみなせるかもしれない。だから、誘電緩和測定を分光法の文脈で解釈することができないとつじつまが合わないことになる。周波数が異なるだけで同じ情報が得られるのだから、通常周波数帯の誘電緩和測定やそれと等価な情報が得られるレオロジー測定も分光法の文脈で理解できるはずだ。

繰り返しになるが、「分光法とは相互作用の周波数(エネルギー)依存性を明らかにすることである」とするなら、IR、NMR、XAFS、EELS、レオロジー測定、誘電緩和測定などこのエッセイで登場した測定法がすべて分光法に分類できることになる。だから、レオロジー測定は分光法か?に対する答えはYESとなる。


ヒッグス粒子の探索

話は少し変わるが、分光法に対するこうした理解が助けになる事例を紹介しよう。スイスのCERNにある大型ハドロン衝突器(Large Hadron Collider, LHC)で行われたヒッグス粒子の探索はほぼ成功し、 Peter Higgs先生らがノーベル賞を受賞した。その際、粒子をぶつけてヒッグス粒子を探すという考え方に違和感を持たなかったろうか?ヒッグス粒子は存在が不確定でその性質もよくわかっていない。なのに粒子を勢いよくぶつけたら、その存在を確認できるなんて、とても乱暴な話だ。そんな乱暴でふわっとした話にもかかわらず、ものすごいお金が投入されることになった。成功確率はどのくらいだったのだろう?それに、何かを見つけたとして、どうしてそれがヒッグス粒子に関わるものだと断言できるのだろう?

Nature ダイジェスト(ヒッグス粒子の発見と今後)より

ヒッグス粒子の証拠として発表されたのが上の図である。125GeVあたりにこぶがあって、これがヒッグス粒子のエネルギーの予測範囲になることから、このこぶがヒッグス粒子の存在を示すとされた。縦軸はイベントとなっており、一瞬何かの粒子ができてすぐに崩壊したときの崩壊のエネルギーを横軸にとっている。要は、粒子衝突して、ピカッと光るんだけど、そのピカッとした光のエネルギーが横軸である。素粒子物理学は物理学の超天才たちが鎬を削る選ばれた人々だけの世界なんで、このグラフがヒッグス粒子の存在を示していると言われても因果関係はさっぱり理解できなくても別に何とも思わないかもしれない。とっても難しい理論が背景にあって、一般人には決して理解できないんだろうな、とか思ってしまう。

いろんな解説記事はネット上に存在するけど、ヒッグス粒子を確認したことの意義とかそういうのはいっぱい出てくるけど、このグラフが何を意味しているのかはちゃんと説明がない。そもそも、何を測定しているのかすらわからない。このグラフは素粒子が崩壊する現象をカウントし、崩壊時に発生するエネルギーを調べる実験の結果である。素粒子はとても寿命が短いので、何かの原因で素粒子ができてもすぐに崩壊して光(多くはガンマ線)になってしまう。だから崩壊するのは自然なことで、検出はそれを利用している。素粒子の崩壊以外でも光は出てくるのだが、素粒子が持っているスピンなどの保存量が崩壊前後で保存されなければならないという条件から、多くの素粒子は2つの光子を互いに反対の方向に同時に生成(光子対)する。この現象は陽電子放出断層像(Positron Emission Tomography, PET)などでも用いられており、割と普通の現象である。なので、素粒子崩壊によって生じた光かどうかは、反対側にも同時に光が観測されたかどうかを確認すればよい。崩壊のもとになった素粒子のエネルギーは対になった光子の合計である。上の図のキャプションにも「光子対」の言葉を確認できる。ということで、上の図はどういうエネルギーの素粒子が崩壊したか、その数はどうか、というグラフということである。

素粒子が崩壊するためには素粒子が存在しないといけない。ほとんどの素粒子はとても寿命が短いので、通常は何かがきっかけで生成されなければならない。素粒子が生成されたきっかけははっきりしていて、LHCが起こした粒子衝突である。

LHCによる粒子衝突であるが、ヒッグス粒子は直接関係しない。衝突に関与するのは加速された粒子(原子)と衝突された粒子(原子)だから、それらが素材となっている。普通に考えると素材からヒッグス粒子が生成されたと思うところだが、実はそうではない。ぶっちゃけると素材となった粒子は基本的にヒッグス粒子とは無関係だ。重要なのは衝突で生まれるエネルギーだ。実はヒッグス粒子は真空であっても空間内にひっそりと詰まっているらしい(僕はこの説明がエーテル宇宙論的なんで好みではない)。だから、何もない空間であってもエネルギーがあったら真空からポコンとヒッグス粒子が飛び出してくるそうだ。これはあたかも、金属表面に光を当てると光電効果によって電子が飛び出す現象にそっくりだ。XPSはこの原理を使った測定で、金属などの束縛エネルギーがわかる。LHCの粒子衝突では飛び出した素粒子のエネルギーを観測することになる。LHCは真空にエネルギーを衝突させて、真空がエネルギーを吸収して素粒子を飛び出させるという現象を使って、ヒッグス粒子を見つけたということだ。これはまさに分光法である。試料は真空で、入力は粒子衝突のエネルギーという突拍子もないものではある。

分光法だと理解すれば、話は簡単で受け入れやすい。素粒子生成の細かなメカニズムを考える必要はないし、入力も何らかのエネルギーであれば何でも良い。量子力学が支配する領域の現象なので、入力は光かエネルギーかの2択になる。あまりに高エネルギーの光は作ることが難しいので、LHCレベルであれば、入力はエネルギー1択になる。エネルギーの生成法も特に制限がないので、人類が用意できる最高レベルのエネルギーとして粒子加速器2つを使った正面衝突ということになったのだろう。LHCの前には粒子に陽電子を衝突させていたはずだ。陽電子は軽いので、ハドロン(要は、プロトン)を使うことにしたという割と安直な考えのようだ。素粒子物理学の最先端の話で門外漢には全く理解できない話だと思っていたが、分光法だと気づけば案外わかる話のようだ。


波及効果に関するコメント

粘弾性スペクトルや誘電緩和スペクトルと同じように周波数依存性を持つ複素数の測定値と言えば、インピーダンスがある。もちろん、インピーダンス測定も一種の「分光法」ということになる。これらすべては条件を満たせば線形応答理論に従うという共通点を持っている。

線形応答理論は、入力と出力を持つ独立した系(システム)すべてに適用できる極めて広い概念である。線形応答理論が適用対象となる条件は、①入力がなければ出力もない。②入力と出力に比例関係がある。③システムは入力以外の影響を受けない。の3つである。①の条件は、ある種の因果律で、これに従わない出力はノイズである。②の条件は入力が十分小さければ必ず成立する。これはあらゆる関数がマクローリン展開できるという数学的事実と対応している。③はシステムが独立であるということを言い換えたに過ぎないが、物理的には入力と出力とシステム(内部)の間でエネルギー保存が常に成り立つという条件を課すことになる。まとめると、線形応答理論は、数学と因果律とエネルギー保存に基づいており、僕たちがこうした事柄に異を唱えない限り受け入れなければならない法則と考えてよい。

線形応答理論の帰結として、システムを表す物理量(係数)は必ず複素数になり、周波数依存性を持つ。だから、粘弾性・誘電率・インピーダンスはいずれも複素数であり、スペクトルになる。周波数依存性を持つので(入力・システム間の)相互作用に周波数依存性が現れる。

IRに代表されるような「吸収」現象も本当のところは複素数であり周波数を依存性をもつと考えるべきだろう。IRの吸収も、粘弾性スペクトルにおける$\tan \delta$のようなもので、そのもととなる複素数の物理量が存在するはずだ。ま、実際のところ、誘電緩和測定をIR領域の周波数で行うことができれば、IRと誘電緩和測定はおそらく完全に一致する。

IR領域で本来存在するはずの複素数量を測定するには、波の解析をして位相のシフトを観測しないといけない。IR領域では波を直接測定できないし、位相は試料のちょっとした凹凸で大きく変化してしまう(干渉計を使えば位相を求められるはずだが、IR領域で機能する干渉計を組み立てて調整するのはなかなか大変だと思われる)。だから、IR領域では材料に由来する位相の変化を測定することは難しい。逆に、粘弾性・誘電率・インピーダンスは波の直接測定が可能なので、複素数量の決定が可能であるだけだと解釈できる。

数学は受け入れないと始まらない。因果律を否定したら科学全体が立脚している客観性が崩壊する。エネルギー保存を否定したらほとんどの物理が意味をなさなくなる。数学・因果律・エネルギー保存から、分光法が立脚する基本原理が導かれるのであるから、分光法の概念は物理に根深く埋め込まれているということになる。

ということでこのエッセイが広げる風呂敷はとても大きい。大きすぎるので僕という非才がちゃんとした論文で議論するには重すぎる。なのでエッセイという形でご容赦いただきたい。