「大規模言語モデルは新たな知能か」;岡野原大輔著 読書感想
本日紹介するのは、岡野原大輔著「大規模言語モデルは新たな知能か」。
著者の岡野原氏は日本が誇る天才集団、Preferred Networksの共同創業者として著名である。学生時代には言語モデルを研究していたらしく、まさに大規模言語モデルを語るのにふさわしい人物だ。
本書は130ページ程度と薄めで、かつ説明レベルは一般向けである。しかしその情報密度は驚くほど濃い。特に後半の5章6章あたりの大規模言語モデルの仕組みに踏み込む部分は読んでいて情報に酔ってしまった。本書は、ChatGPTのハウツーからは一歩離れ、ストイックに大規模言語モデルの原理を考察したい人にお勧めである。
大規模言語モデルは事前にロールプレイを指示したり回答フォーマットを例示したりすることで振る舞いを制御できることはよく知られているが、その仕組みについてはずっと疑問に思っていた。
本書によると、注意機構の数式を変形すると、重みパラメータを一時的に変えているとみなすことができるそうだ。つまり、プロンプトによる指示や、自分自身が生成した応答に合わせて、モデルをその場で学習しているようなのだ。具体的には、注意機構は過去の文脈の予測誤差に応じた勾配降下法と同じ効果をシミュレーションして、次の単語を予測しているらしい。このような内容が、メタ学習や分布外汎化といったキーワードとともに説明されている。
なおこれに関連して一つ補足すると、注意機構はあくまでもフィードフォワード処理であるため、RNNのように本当の意味で過去の文脈を記憶する機能があるわけではない。GPTに記憶を持たせるには、プロンプトに加えてユーザーの入力と言語モデルの出力の履歴も入力しなければならない。つまり、言語モデル自体はフィードフォワード処理だが、チャットシステム全体でRNNに似た構造を作っていることになる。このあたりは自分でOpenAIのAPIを直接触ることで理解した。
また、LLMはオッカムの剃刀の原則に反してパラメータ数がそのまま性能に直結するというスケーリング則によって機械学習業過の常識を覆したことでも有名である。
大規模言語モデルが持つ高い汎化性能については、2つの仮説が紹介されている。まず宝くじ仮説は、ニューラルネットワークには初期値の時点でタスクに対して最適な部分ネットワークが隠れており、学習とはその部分ネットワークを掘り起こす作業であるというものだ。モデルが大きいほどそのような部分ネットワークが存在する確率が大きくなるため、モデルの規模が大きくなるほど性能が良くなるというのだ。この仮説は、「モデルの規模が大きくなるとある時点で突然タスクが上達する」という創発現象にも関わっているらしい。また、「平坦な最小解仮説」は、大きなモデルを勾配法で最適化すると、平坦な最小解という状態に到達する確率が高いというものだ。平坦な最小解とは、多少パラメータをずらしてもパフォーマンスが変わらないような解であり、この状態はモデルの複雑度が小さいことが理論的に分かっているらしい*1。
これ以外には、トランスフォーマーの注意機構が短期記憶に、全結合ブロックが長期記憶に相当するのではないかという仮説が非常に示唆的で感銘を受けた。ここに書けるほど咀嚼できていないので、皆さんにはぜひ自分で読んでみて欲しい。
なお、ChatGPT登場以降、様々な勉強会や討論会が行われている。私は以下のような動画を見て勉強中である。
www.jdla.org
www.t.u-tokyo.ac.jp
また、「JDLA Generative AI Test 2023」も受験し、無事合格している。
ChatGPTが登場して一年がたった。オープンソースLLMやLangChainなどのライブラリの整備が進み、今や生成AI戦国時代となっている。私自身は生成AIに関してはユーザーの立場ではあるが、今後も世の中に置いて行かれないよう、AIの利活用や情報収集、勉強を続けていきたい。
「つくりながら学ぶ!PyTorchによる発展ディープラーニング」;小川雄太郎著 読書感想
本日紹介するのは、小川雄太郎著「つくりながら学ぶ!PyTorchによる発展ディープラーニング」。
書名に「発展」とあるように、本書で扱われる手法は非常に発展的・応用的だ。物体検出のSSD、姿勢推定のOpenPose、異常検知のAnoGANなどは、メディアや書籍などで一度は聞いたことがあるだろう。しかしこの手のモデルは構造が複雑で、メディアの解説はもちろん原著論文を読んでもいまいち理解できないことも多い。このような論文レベルの手法*1の仕組みが詳細に解説されているだけでもありがたいのだが、本書はさらに、これらのモデルをPyTorchを使って1から組み上げていく*2。既にライブラリがある程度整備されているTransformerやBERTも、自分で実装する経験は貴重なものになった。なお本書の想定開発環境はAWSだが、私はGoogle Colaboratory(以下colab)で実装した。colab環境ではデータのダウンロードや解凍・モデルの学習にかかる時間が書籍に書いてあるより数倍速く、colabがいかに強力であるかも再認識することができた*3。
また、サポートが丁寧であることも本書の特徴の一つである。まずコード中のコメントが非常に充実している*4。特に実装が非直感的になっている部分は徹底的にコメントで解説してくれているので、迷子にならずに済む。githubのイシューも活発で、著者が直々に議論に参加している。サンプルコード付き書籍のgithubはせいぜいこっそりバグフィックスしている程度のものが多いが、ここまで丁寧にアフターサービスを実施している著者には本当に頭が下がる。
最後にもう一つ。本書は基本的にコーディング中心で理論の説明はあまりないのだが、所々に著者独自の考察(感覚的理解)が述べられており、それが非常に参考になる。ネタバレになるので詳細は控えるが、DCGANにLeakyReLUが使われる理由や、CBOWよりもskip-gramで得た分散表現の方が性能が良い理由*5についての考察がある。興味のある方はぜひ本書を読んでみて欲しい。
こちらのイシューによると、著者は業界の動向を見て、方向性がある程度FIXしたらアルゴリズムを選定し直して新刊を出す予定のようだ。その時にどのアルゴリズムが選定されるかは分からないが、本書のような粒度でViTや拡散モデルなどを解説していただけるのであれば、その新刊も名著になることは確定だろう。楽しみにしたい。
TIPS+トラブルシューティング
本書は既に出版されてだいぶ経っており、所々エラーが発生することもある。前述したのように本書のgithubイシューは非常に活発で、大抵のエラーはイシューを調べればすぐに解決する。しかし、それでもやはり一筋縄ではいかなかった部分もあり、ここでは特に苦労した点やcolab特有と思われるエラーを挙げる。
公開GoogleDriveや公開Dropboxからcolabに直接ダウンロードする
本書の学習データや学習済みモデルの一部はGoogleDriveやDropboxからダウンロードすることになっている。手動でダウンロードしてローカルドライブからcolab環境に持ってきても良いのだが、本書に用いるデータはサイズが大きく、ドライブの容量を圧迫する。それにマウントは認証の手間があるので、直接ダウンロードした方が手っ取り早いと思う。GoogleDriveについてはこちらとこちらを参考にして、以下のようなコードを使用した*6。もちろん、URLやファイル名の部分はその都度変更が必要。
!pip install --upgrade gdown import gdown gdown.download("https://drive.google.com/u/0/uc?id=0ByFQ96A4DgSPUm9wVWRLdm5qbmc", "./data/vector_neologd.zip", quiet=False)
また、Dropboxからのダウンロードについてはこちらを参考にした。例えば、以下のようになる。
#!wget -O tmp/FILENAME "対象URL(末尾?dl=1)" !wget -O ./data/COCO.json https://www.dropbox.com/s/0sj2q24hipiiq5t/COCO.json?dl=1 !wget -O ./data/mask.tar.gz https://www.dropbox.com/s/bd9ty7b4fqd5ebf/mask.tar.gz?dl=1
SSDの推論時のエラー
対応するイシューはこちら。一番簡単な対策であるダウングレードについては、古いバージョンがpipの対象外?になっていたため実行できなかった。そのためryota0051さんの5/10のコメントを参考にしてスクリプトを修正したところ、無事に動いた(修正したスクリプトは%%writefileコマンドで保存するのが一番手っ取り早いだろう。colabセルとしてそのまま実行してもいいかもしれないが未確認)。
姿勢推定(OpenPose)の学習でメモリオーバー
バッチサイズを32から24にしたら動いた。たまたまその時だけcolabのGPUガチャに外れただけかも。
NEologd辞書のインストール
こちらの記事を参考にしつつ、さらにgit curl python-mecabという記述を削除。以下のようになる。
!apt-get -q -y install sudo file mecab libmecab-dev mecab-ipadic-utf8 > /dev/null #git curl python-mecab > /dev/null !git clone --depth 1 https://github.com/neologd/mecab-ipadic-neologd.git > /dev/null !echo yes | mecab-ipadic-neologd/bin/install-mecab-ipadic-neologd -n > /dev/null 2>&1 !pip install mecab-python3 unidic-lite > /dev/null !pip install janome > /dev/null # シンボリックリンクによるエラー回避 !ln -s /etc/mecabrc /usr/local/etc/mecabrc
Mecabの-Ochasenオプションを単独で使うとエラー
以下のように-dオプションで辞書を明示的に指定。
# m_t = MeCab.Tagger("-Ochasen") m_t = MeCab.Tagger("-d /var/lib/mecab/dic/ipadic-utf8 -Ochasen")
torchtextのFieldやTabularDatasetの廃止
現在は既にtorchtext.legacyすら廃止されているので、おとなしくv0.8.1までダウングレードした。これもpipで対応できなくなると更なる対策が必要かも。
utils.dataloader.get_IMDb_DataLoaders_and_TEXT関数がエンコーディングエラー
colabセルにコピペしたら普通に動いた。また、io.open関数にencoding="utf-8"を追加して%%writefileコマンドでファイルを保存し直したら動いた。よくわからない。
youtube動画のダウンロードと前処理
1. 幸いなことに必要な動画はたった8つなので、ここは手動でダウンロード。ファイル名は1.mp4、2.mp4 ... などと通し番号を付けた。これをzipにまとめてcolab環境にアップロード。パスが/tmp/kinetics/*.mp4になるように展開する。
2. download.pyを以下のように修正してdownload2.pyとして保存(%%writefileコマンド使用)。以下は修正箇所しか見せないが本書を読んでいる人なら分かると思う。
#import youtube_dl #中略 ###追加 def filename_generator(): for i in range(1, 1000): yield str(i) + ".mp4" g = filename_generator() ### def download_clip(video_identifier, output_filename, #中略 #tmp_filename = os.path.join(tmp_dir, # '%s.%%(ext)s' % uuid.uuid4()) #追加 tmp_filename = os.path.join(tmp_dir, next(g)) command = ['youtube-dl', #中略 while True: try: #output = subprocess.check_output(command, shell=True, # stderr=subprocess.STDOUT) #追加 pass
なお、ffmpegはcolab環境のものがきちんと動いたので修正箇所はyoube-dlに関する部分だけでよかった。
3. 以下のコマンドでdownload2.pyを実行。注意点は、上記の修正でジェネレータを使っており並列処理に対応していないため、ジョブ数を1としていること。それでも大した処理時間ではなかった。
!python ./video_download/download2.py -n 1 ./video_download/kinetics-400_val_8videos.csv ./data/kinetics_videos/
これ以降の処理は問題なく動いた。
E資格2022#1合格
2022年2月19日(土)に受験したJDLA Deep Learning for ENGINEER(通称E資格)に無事合格した。
分野別得点率
応用数学:100 %
機械学習:89 %
深層学習:96 %
開発環境:100 %
機械学習の数字を見て一瞬「そんなにミスったっけ?」とびっくりしたが、そもそも出題数が少ないためだと気が付いて一安心。おそらく24/27といったところだろう。深層学習も出題数を考えると2~3問ミスったことになる。1問は試験が終わってすぐに間違いに気が付いたが、残りはどこだろう…?気になる。
以下、受験体験記的もの。
受験のモチベーション
私はこの数年間、ディープラーニングや機械学習について書籍を中心に独学で学んできた(その中のいくつかはこのブログで読書感想記事を書いている)。E資格を受験する目的は人それぞれだが、私の場合、自分が独学してきた知識が世間に通用するかどうかを確かめたかったことが大きな理由である。結果的にそれなりの高得点で合格したということで、この目的は肯定的に達成することができたと思う。
認定講座
E資格の受験には、事前にJDLA公認の機関から講座を受講する必要がある。私はスキルアップAI社「現場で使えるディープラーニング基礎講座」のオンライン講座(5万円)のプランを受講した。数十万円の講座もある中では格安と言っていい値段だが、その分サポートは薄いのである程度の前提知識や独学力は必要になる。私はそこら辺は全く心配していなかったので、迷わずこの講座を選択した。
講座の内容も分かりやすく、特にこれまで知識が手薄だったRNN系や自然言語処理周りへの抵抗感がなくなったのは間違いなく本講座のおかげである。LSTMの計算グラフなんて本を読むだけなら絶対スキップしていた。また、修了課題の一つである「手書き文字認識モデルの作成」も手ごたえがあった。テストデータ正解率0.975当たりまでは簡単に到達したがそこからかなり試行錯誤が必要になる絶妙な難易度だった。もちろん最終的にはクリアしたのだが、その際に壁を突破する決定打となったのが「よくお勧めされているけど今まで自分では使ったことがなかった、ある手法」だった。なるほどこれは強力だ、と自分の肌感覚として納得することができ、いい経験だった。
なお、スキルアップAIはE資格模試も提供しており(ただし、「現場で使えるディープラーニング基礎講座」受講者限定である)、私はこちらも受講した。年明けに受験し一発で合格点を取ったことで勉強の手ごたえを感じ、だいぶ心に余裕ができた。私が今回E資格の勉強に使用した教材の中で、最も本番のレベル感に近かったのはこの模試である。少々高額ではあるが、予算に余裕があるならぜひ受けた方が良い。
勉強に使用した書籍
上述した認定講座以外に、E資格対策として読んだ本は主に次の2冊。
ゼロから作るDeep Learning
グッドフェロー本はあまりにも学術的過ぎるので、事実上本書がE資格の公式テキストと言ってもいいだろう。これを機に再読した。かつて読んだときより明らかに知識の解像度が上がっており、特にかつてブラックボックスだったim2colが理解できるようになったことがうれしかった。徹底攻略ディープラーニングE資格エンジニア問題集 第2版
通称黒本。過去問が公開されていないE資格において唯一の市販問題集。たとえE資格を受けなくても、「演習問題をこなすことで理解を深める」という勉強スタイルが好きな人にはお勧めの一冊である。掲載されている問題の中にはやや難しいものもある*1が、本書を十分にこなしていれば試験には受かるだろう。なお本書には模擬試験1回分も付いているが、本番のレベル感に対してかなり優しめなので、これが解けたからといって「なんだ、こんなもんか」と油断しないように注意してほしい。その他、副読本として次の2冊をさっと読んだ。
ゼロから作るDeep Learning ❷ ―自然言語処理編
こちらもE資格対策のバイブルとして紹介されることが多い。私も本当は写経しながらじっくり読みたかったが、ちょうど仕事が忙しくなりあまり本格的に取り組むことができなかった。自然言語処理関係についてはスキルアップAIの教材をメインに勉強した。
深層学習
いわゆるグッドフェロー本。一応E資格の公式テキストなので目は通した。色々示唆的なことが書いてあり考察(妄想)しながら読む分には面白いが、”E資格対策”としてはあまりにも重すぎる。純粋に学問的興味がある人が読めばいいと思う。
勉強期間
E資格のための勉強期間は2021年11月18日から始めてちょうど3か月。おおざっぱに分けると、最初の1か月で認定講座を修了、次の1か月で黒本や模試、スキルアップAIの知識テストなどを繰り返し解き(この期間がいわゆる”資格の勉強”感が一番強かった)、最後の1か月は上述した本を読んだりして知識を体系的に整理する、という配分だった。
なお、この勉強期間や読んだ本というのはあくまでも「E資格対策として」であり、通算では他にも技術書・理論書・一般向け啓蒙書や新書、あるいは哲学寄りの本や脳科学などの周辺分野の本といった、それなりの量の本を読んで勉強してきた。そのような前提知識があってこその合格なので、軽々しく「3か月で受かる」などと言うつもりはない。これからE資格を受験する皆さんは、自分のペースで頑張っていただきたい。
試験本番の感想
出題内容については規約のため詳しく書くことはできないが、まさに解いている最中に「ああ、なるほど!面白いなぁ」と思えるような問題もあり、学びのある非常に質の良い試験だった。120分で100題以上の問題を解くことになるので時間が心配になる人もいると思うが、過剰な心配はいらない。確かに平均すると1問1分の計算になるが、実際には即答できる問題も多いので、多少計算問題で躓いたり*2、論文出典の難問をじっくり考えたりしても、時間的にはかなり余裕がある。さらにCBTでは本を手で押えたり解答をメモしたりする手間がないので、想定よりもサクサク進むはずだ。私の場合、一通り解き終わった時点で残り時間がまだ53分あったので、見直しの時間を十分に確保することができた。
最後に
資格なんて役に立たないという人もいるが、E資格はそもそも免許的な性格の資格ではなく、知識を更新し続けることが前提で、あくまでも勉強の指針である。2022#2からはシラバスが変更になるらしいので、私もさっそく知識の更新が必要そうだ。最近は安価な認定講座もあり、E資格受験のハードルもだいぶ下がってきている。気になっている人はぜひチャレンジしてほしい。
「ゼロからつくるPython機械学習プログラミング入門」;八谷大岳著 読書感想
本日紹介するのは、八谷大岳著「ゼロからつくるPython機械学習プログラミング入門」。
私はこれまで機械学習の本を何冊か読んできたが、古典的な機械学習に関する入門書は、実質的にscikit-learnのチュートリアルで終わっていることも多い。機械学習の中身をもう少し踏み込んで理解したいと思い、本書を読んでみた。
書名からはコーディング中心の本という印象を受けるが、本書の性格はどちらかと言えば「サンプルコード付きの理論書」である。「理屈はともかく写経しろ」という内容を想定していると面食らうことになるが、そもそも昔ながらの機械学習は深層学習以上に数学そのものであり、その中身を理解するうえで数学は避けて通れない。一方、理論さえ理解してしまえば、アルゴリズムのコアはたった数行程度のコードでスクラッチ実装できてしまうということが、本書を読めば分かる。本書では純理論の本を読んでいるとありがちな、式の意図やイメージの掴みづらさに悩まされることがない。本文中の数式に沿ったコードが掲載されているので、例えばテンソルの形状だとか総和の対象(軸)などもコードを確認すれば誤解なく理解することができる。
章ごとの感想
第3章
まず勉強になったのは第3章の数学の復習。本書では特に最適化数学の解説に力が入っており、ラグランジュの未定乗数法が機械学習アルゴリズムのベースにあることが理解できた。私は最適化数学になじみがなく、特にベクトルの内積をベクトルで微分するような表記は苦手意識を持っていたので、本書で多少なりともこの分野に慣れることができたのは良かったと思う。本書を読む中で、この章は何度も読み返すことになった。
第4章
回帰アルゴリズムとして線形回帰とロジスティック回帰を学ぶ。線形回帰について、本の方針によっては単回帰()に限定して係数を表す式を直接導く場合も多いが、本書のように線形代数に基づく表記では、重回帰に拡張したときに式に一切変更がないという圧倒的メリットがあることに気が付いた。また、ロジスティック回帰が実質的に分類モデルであるにも関わらず回帰と呼ばれるのは、交差エントロピー誤差の最小化がロジットを回帰していることに対応するため、という記述には目からウロコが落ちた。
第5章、第6章
分類モデルの章では、線形判別分析(LDA)、サポートベクトルマシン、ナイーブベイズ、決定木が扱われている。この章では特に、サポートベクトルマシンの理論から逃げていないことに好感を持った。ある程度のレベルの数式を扱っている本でも、サポートベクトルマシンの理論については「難解すぎる」としてscikit-learnやLIBSVMといったライブラリの使い方を説明するだけで終わってしまう場合が多い。本書では第6章のカーネルトリック*1まで含めて、サポートベクトルマシンの数式&スクラッチ実装を学ぶことができる(ただし、ここだけは行列の計算にcvxoptライブラリを用いている)。
第7章、第8章
第7章はニューラルネットワーク、第8章は強化学習がテーマである。ニューラルネットワークについては他書で十分に学んでいるという人は、ここは飛ばしてもいいだろう。ただ、Adamをきちんと実装している点は参考になるかもしれない。強化学習に関しては、ページ数も少ないし、本書全体のテーマからはやや外れている印象を受けた。同じ機械学習スタートアップシリーズから強化学習も出ているようなので、強化学習に興味があるならそちらを読んだ方がいいだろう。
第9章
教師なし学習アルゴリズムとして、主成分分析と因子分析、k-means法が扱われている。PCAは分散を最大化する軸を見つけると説明されることが多いが、その根底には残差の二乗和の最小化があるという意味で、線形回帰に似ているということが理解できた。k-means法はアルゴリズムの概念はわかりやすいが実装は面倒くさそうという印象を持っていたが、重心からデータ点の距離を計算→データ点をクラスタに割り当て→クラスタの平均値を重心に再設定の流れがあまりに簡潔で驚いた。特に、カーネル法のところでも使われていた、np.tile関数を用いてデータの全ペアの計算を一度の行列演算で行うトリックは自分では絶対に思いつきそうにない。応用範囲が広そうなので、ぜひ自分のレパートリーに加えたいテクニックである。
まとめ
ここまで紹介したように、本書はかなり数式が多い本なので、想定読者は大学生や研究者、または研究寄りのエンジニアになるだろう。アルゴリズムの中身をきちんと勉強したいが、純理論の本にはハードルを感じるという人にお勧めである。機械学習の仕組みはもちろんであるが、もう少し一般化して、理論や数式をプログラムに実装するということも学ぶことができる。
全体として、非常に読み応えのある良い本であるが、一つ不満点を挙げるとすると、コードが書籍中で完結しないことだろうか。もちろんアルゴリズムのコア部分のコードは載っているのだが、グラフのプロットや性能評価などの補助的なコードは書籍中には載っていない。本書はかなり分厚いので、これ以上コードを載せることは現実的ではないのかもしれないが、「ゼロからつくる」と銘打っている以上は、もう少し読者に自分でコードを打ち込ませるように誘導する構成の方が良かったのではないかと感じた*2。
「量子コンピュータが本当にわかる!」;武田俊太郎著 読書感想
本日紹介するのは、武田俊太郎著「量子コンピュータが本当にわかる!」。
著者の武田先生は量子テレポーテーションで有名な古澤研のOBで、最近独立した研究室を立ち上げた若手研究者である。以前紹介した藤井先生が理論の専門家であるのに対し、武田先生は光を用いた実験(コンピュータの文脈ではハードウェア)の専門家だ。理論家と実験家、読み比べてみると面白い。
本書では波の重ね合わせと干渉によって計算を行う量子コンピュータの概念を、二重スリット実験のアナロジーを用いて一貫したイメージで説明している。その点だけでも分かりやすくておすすめなのだが、本書の見どころは何と言っても第5章「量子コンピュータの実現方法」と第6章「光量子コンピュータ開発現場の最前線」である。
第5章では、超伝導回路方式、イオン方式、半導体方式、光方式の量子コンピュータについて解説されている。使われている模式図は一般書としては比較的詳しく描かれていて、モノを重視する実験家らしさを感じた。特に光方式については第6章で実際の実験装置の写真とともに詳述されている。研究室の見取り図まで載っているのには笑ってしまったが、この手の本で著者自身の独自の研究成果を知ることができるのは貴重である*1。
また、第3章は量子ビットと量子論理回路の話なのだが、ここで一つ気付いたことがある。本書ではいわゆる制御NOTゲートのことを「量子版XOR」と説明しているのだ。制御NOTを実験物理学の観点から見ると、二量子間の相互作用により生じるエネルギー準位の微細構造により「制御ビットが特定の状態の時だけターゲットビットが電磁波に対して反応(共鳴)して状態が反転する」という操作である*2。制御NOTとはまさにその言葉の通りの操作であり、私はこれを専門用語としてそのまま受け入れていた。恥ずかしながら、この操作が数式的にはXORに相当すること自体は認識していたにもかかわらず「普通のコンピュータの論理回路と対比させて量子版XORということができる」という点にまでは気が回っていなかったのだ。些細なことではあるが、個人的には盲点、目から鱗であった。
最後に全体を通して感想だが、やはり実際に装置を組み立ててデータを取っている人が書く内容というものは説得力がある。写真も豊富で、概念的なたとえ話やポンチ絵だけではなくモノがないと納得できない人には本書は非常にお勧めできる。一方、本書の解説があまりにも優しすぎて、すんなり読み終わってしまった感も否めない。科学の本としての知的興奮度に関しては、藤井先生の方に軍配を上げたい。
量子コンピュータの計算部分は現在は超電導方式が主流だが、通信をしようとすると光を使わざるを得ないだろうから、武田先生の研究の重要性は今後さらに増してくるだろう。今後の発展が楽しみである。
量子コンピュータが本当にわかる! ― 第一線開発者がやさしく明かすしくみと可能性
- 作者:武田 俊太郎
- 発売日: 2020/02/19
- メディア: 単行本(ソフトカバー)
「驚異の量子コンピュータ」;藤井啓祐著 読書感想
本日紹介するのは、藤井啓祐著「驚異の量子コンピュータ」。
著者の藤井先生は量子誤り訂正の理論を専門とする研究者であり、量子コンピュータの理論分野では日本を代表するトップランナーである。
本書は主に「ゲート型」とか「万能型」と呼ばれるタイプの量子コンピュータについて書かれている。”物理”と”情報”の研究分野が融合するまでの歴史の話から始まり、量子コンピュータの仕組みの説明に話が進む。ここまでは類書でもよくある流れだが、その後に実現への壁であるノイズとの闘いと、量子誤り訂正理論の発展によるブレイクスルーについてページ割かれているのは、専門家ならではであり類書には見られない特徴だろう。後半にはGoogleによる量子超越性の実証やNISQマシンの話など最新の話題もあり、これだけの内容がわずか160ページほどでコンパクトにまとめられている。一方で、本書はあくまでも学問的な視点で書かれており、ビジネスへの利用やライブラリの使用方法といった実践的なことはあまり述べられていない。とはいえ、そういった目的を持つ人に対しても、量子コンピュータへの入門書として非常にお勧めできるのは間違いない。
私が本書を読んで、個人的にさすが!と思った点が2つある。
一つは量子もつれの説明の部分。本書では量子もつれを「2つの粒子をそれぞれ箱に入れて、粒子が箱の仕切りの右側にあるか左側にあるか」というたとえ話で説明している。メディアや入門書でよくあるのは、「片方が右にあることが確定すると、もう片方も右にあることが同時に確定する」という部分だけを取り上げて、「(離れた位置にある)2つ粒子の状態が同時に確定する」ことが量子もつれの不思議さである、とする説明だ。しかし本書ではこのような相関は古典でも説明できてしまうことを指摘したうえで、さらに「箱の仕切り方を”上下”に変えても、片方が上にあれば片方も上にある」というところまで説明している*1。これこそがまさに本質的に量子特有の現象であり、例えばベルの不等式などもこの性質を利用している。
もう一つは、量子コンピュータの仕組みについて、すべてのパターンを並列に計算するだけでは意味がなく、干渉を用いて特定の答えが出る確率を増幅するステップを組み合わせることが重要である点に言及している点だ。
「重ね合わせによりすべてのパターンを超並列に計算するから速い」。これもメディアなどでよく見かける説明だ。普通のパソコンでさえマルチコアによる並列計算が当たり前になった現代において、この説明は直感的で理解しやすい。確かに量子アルゴリズムではアダマールゲートによって重ね合わせ状態をつくって利用する。しかし本書で述べられているように、単にすべてのパターンを並列に計算するだけでは、最終的に測定をする段階で正解が得られる確率が小さくなってしまう。量子アルゴリズムの肝はむしろ、いかに可能性をうまく絞り込んでいくかというところにあるのだ。例えば量子もつれも、このような絞り込みの手段の一種である。2ビット4パターンの組み合わせのうち、CNOTゲートによって「右右」や「左左」が出現する確率が増幅し、「右左」や「左右」のような組み合わせを取る確率が抑制されているわけだ。重ね合わせによる並列性だけでなく、干渉による絞り込みもセットで知ってると、量子コンピュータに対するイメージが変わってくるのではないだろうか。
このように、本書は数式を使わずに例え話とイラストでわかりやすく説明する一般向け書でありながら、学問的正確性も高い。それだけでも入門書として優れていると言えるが、加えて所々で著者の知的興奮が伝わってきて、読者の向学心を煽るのも良い。最後に、本書で私が最も感動した部分を引用させていただこう。
量子コンピュータは確率振幅というある種のアナログな量を使うことによって計算を加速しているが、量子情報に発生するアナログエラーについてはデジタル化して訂正することができるのだ。量子力学は、デジタルとアナログが両立するように、奇跡的に美しい構造をとっている。まさに、量子コンピュータを作り上げろと言わんばかりである。(p103)
サイコロ遊びが好きな神様は、どうやら人類が「宇宙をハッキングする」手段も用意してくれていたようだ。今後の量子コンピュータの発展と、藤井先生のご活躍に期待である。
なお、アニーリング型の量子コンピュータに関する同レベル帯の入門書としては、以下が読みやすいのでお勧めする。
*1:このことを専門用語では「測定基底を変えても相関を保っている」と表現する。
「Pythonによる数値計算とシミュレーション」;小高知宏著 読書感想
本日紹介するのは、小高知宏著「Pythonによる数値計算とシミュレーション」。
元々はC言語版が古くから出版されていて、本書はそのPython版である。読者層は情報系が想定されているが、小高先生の本はサンプルプログラムの実装が素朴でわかりやすく、プログラミングを専門としない方でも理解や改造が容易である。また、本書はあくまで数値計算アルゴリズムを自分で実装することを趣旨とする本であるが、ScipyなどPythonのライブラリを用いる方法についても簡単ではあるが記述がある。
内容は6章構成で、1章で数値計算の基礎と誤差の問題を扱い、2章・3章で微分方程式の数値解法、4章でセルオートマトン、5章で乱数によるモンテカルロシミュレーション、6章でエージェントベースの手法を学ぶ。
私は物理系の数値計算の講義を受けた経験があり、微分方程式と乱数の部分は懐かしい気持ちで読み進めた。学生時代は特にオイラー法がお気に入りで、ロトカ・ヴォルテラ方程式やレプリケータ方程式などを解いて遊んでいたことを思い出した*1。
一方で、オートマトンやエージェントベースの手法は方程式ベースの手法とは毛色が違い、社会現象のシミュレーションに有用である。特に第6章で扱われる「感染」シミュレーションは、現在のコロナ禍を彷彿とさせ、非常に興味深く読ませていただいた。章末問題にも言及があるが、例えば飛沫の拡散などの物理シミュレーションと組み合わせて、「密」のシミュレーションなどをやってみたりすると面白いのではないかと思った。
ニュースなどでよく、「シミュレーションによれば何十年後の気温が何度上がる」とかいう話が出てくる。また、製造業のエンジニアをやっていると、CADソフトでシミュレーションを行う機会も多いだろう。本書を読むことで、「現実の物理現象や社会現象をコンピュータでシミュレーションするとはどういうことか」という概念が理解できる。数式ではなくコードがメインの本であるため、意欲的な高校生にもおすすめである。自分が高校生の頃にこういう本を読んでいれば、物理の勉強が捗ったのになぁ、と思う。
バグ情報?
第6章のマルチエージェントのプログラム、例えばP174の48行目などで、この実装ではカテゴリ0のエージェントだけ、1ターンに何度も移動することになる。
サポートサイトに正誤表が見当たらないので確認できないが、控えめに言っても本文に記述のない仕様である。カテゴリ0の移動はfor文の外に記述するのが正しいと思う。
def cat0(self): for a in agents: if a.category == 1: c0x = self.x c0y = self.y ax = a.x ay = a.y if ((c0x-ax)**2+(c0y-ay)**2) < R: self.category = 1 if self.category == 0: self.x += random.random() - 0.5 self.y += random.random() - 0.5
ただし、これだけだとカテゴリ0の移動量がサンプルプログラムより減ってしまうので、移動量は適当に調節するのがよいだろう。
- 作者:知宏, 小高
- 発売日: 2018/01/16
- メディア: 単行本