コードを書かずにHerokuボタンひとつでデプロイ!LINEチャットボットを試す全手順を公開
GitHubとHerokuを使ってLINE Messaging APIがどういうものか試せるようにしました。
この記事で何ができるようになるの?
- コードを書かずに、LINE上で動く超簡単なチャットボットが作れます
- LINEチャットボットの簡単な始め方がわかります
この記事の目的
僕は確信しています。チャットボットは新しいパートナーだと。ウェブサービスの新規登録ボタンを見つけることができなくても、「登録したい」とチャットボットに言えばサービスを受けられる世の中が来ると。でも、そんなチャットボットは、ツールではなく、パートナーになっていくんだと。いなかったら寂しいやつだと。そう僕は思っています。
僕はぜひともみんなに、チャットボットに触ってほしい。だからこの記事を書いています。
もう一つの目的
この記事は、サポーターズのイベントで話した内容をまとめたものです。当日は急な繰り上げでコンピュータを持参できなかった方が何人かいました。その人たちを始めとする参加者のみんなにまとまった資料を提供するという目的もあります。
主催者いわく、4月にも開催予定とのことですので興味のある方はよろしくお願いします。
supporterz-seminar.connpass.com
チャットボットを始めるための準備
それでは、始めていきましょう。今回、チャットボットを始めるために必要なことはシンプルです。
- LINEのアカウント(日常利用しているもので十分)
- Herokuのアカウント
- LINE Business Centerへ登録
どれもお金は不要です。
Herokuのアカウントを作る
さあ、Herokuのアカウントを作りましょう。Herokuをアカウントがあれば、無料でウェブアプリケーションを公開する基盤が手に入ります。レンタルサーバーやVPSを借りる必要はありません。
Sign up for free から始められます。
Herokuの準備は完了です
HerokuはRubyやPHPを始めとするいくつかのプログラミング言語に対応しています。公式に対応していなくてもBuildpackを自分で用意すれば、Herokuで利用することができます。
以下の画面が出れば、Herokuの準備は完了です。次はLINEの準備をしていきましょう。
LINE Business Centerに登録しよう
LINE上で動くチャットボットを作るために、LINE Business Centerで登録しましょう。まずは、すでに持っているLINEアカウントでログインをしてみます。ログインするときは、メールアドレスを求められます。メールアドレスはLINEアプリの設定をみれば、思い出せます。
Messaging APIの利用をDeveloper Trialで始めてみよう
最近店舗で利用される機会が増えているビジネス向けのアカウント: LINE@が提供されています。LINE@は、友達追加時に「友達に追加してくれてありがとー!」のような自動応答を設定できます。
定型文じゃ味気ない、これをもっとユーザのメッセージに応じて柔軟にしたい!と思うのは必然です。
ユーザからのメッセージを取得するためには、自分の用意したサーバー(Heroku)のエンドポイント(http://example.net/callback
)を登録する必要があります。Messaging APIのDeveloper Trial*1に申し込んで設定していきましょう。
Messaging APIの申し込み手順
Developer Trialを始めると、事業主を選択するように促されます。事業主を登録していなくても選択をクリックすれば、事業主を追加するボタンから登録することができます。
以下の画面までたどり着けば、完璧です。LINE Business Centerに登録できました。ここから再び、Messaging APIのアイコンをクリックして進めていきましょう。
Developer Trialをクリックすれば、アカウント名の設定を求められます。アカウント名は後から変更できるので気楽に決めましょう。ただし、LINEの友達となったユーザにはアカウント名が公開されますので、公開するときは早めに変更してください。
さあ、申込みが終わりました。チャットボットを試すために、LINE@MANAGERの設定を変更しましょう。
LINE@MANAGERの設定をしてユーザからのメッセージを送信するようにしよう
今回は、Messaging APIを利用してチャットボットを試してみるのが目的です。警告文を読んで、APIの利用を開始しましょう。
以下の画面のように設定を変更していきます。Webhook送信、Botのグループトーク参加は「利用する」を選択、自動応答メッセージ 、友だち追加時あいさつは「利用しない」を選択して保存するようにします。
Webhook送信を利用することで、自分が用意したサーバー(Heroku)にユーザの送信したメッセージを受信できるようになります。次は、LINEのトークンを確認していきます。
Messaging APIの利用に必要なLINEのトークンを確認しよう※メモを忘れずに。
Webhook送信などの設定した画面のステータス欄にLINE Developersで設定する というリンクからトークンを確認する画面へ移動できます。
画面が移動すると少し雰囲気が変わります。ページのShowとISSUEというボタンをクリックして表示された文字列をメモとして残しておきましょう。
メモするべきトークンは3つ
トークンを3つメモしておきましょう。Herokuを使ってチャットボットをウェブアプリケーションとして動かすときに必要になります。
- Channel Secret
- Channel Access Token
- UserID
Channel Secret
Channel Access Token
UserID
これは、あなた自身のLINEアカウントIDです。これを使えば、あなた自身にメッセージを送ることができます(Push Message)。
これらのトークンは大切なものですから、メモを誤って公開しないようにしてください。では、GitHubへ移動してHerokuへデプロイしていきます。
GitHubからボタン一発デプロイ
LINEチャットボットを簡単に試せるように、GitHub上にHerokuボタンを設置しました。以下のリポジトリからボタンを押してみましょう。のちほどプログラムに変更を加える人は、自分のリポジトリにフォークしてからやる良いでしょう。
アプリ名やトークンを入力してデプロイ
ボタンを押すと、デプロイするアプリについて情報入力を求められます。アプリ名はアプリのURLとなります。たとえば、your-chatbotline
とすればあなたのアプリケーションのURLは、 https://your-chatbotline.herokuapp.com
となります。
アプリ名を入力したら、先程メモしたChannel Secret、Channel Access Token、UserIDの3つを入力してデプロイします。デプロイ後、https://your-chatbotline.herokuapp.com
にアクセスしてhelloという文字列が見れた成功です!
最後にLINE Developersにウェブアプリを教える
さきほどデプロイしたウェブアプリには、LINE Serverからのメッセージを受け付ける先(callback)が用意されています。そのコールバック先を、LINE Developersを開いて登録しましょう!登録する場所は以下の画像を参考にしてください。
登録するURLは、https://your-chatbotline.herokuapp.com/callback
ですのでお間違えなく。
入力したら、verifyというボタンを押して通信ができているか確認して終了です!次から、ついにウェブアプリが動き出します!
Push Messageを試してみよう
あなた自身のLINEに対して、Messageを送ってみます。/test/push
というエンドポイントにブラウザでアクセスすることで、「push message」というMessageを送ることができます。例: https://your-chatbotline.herokuapp.com/test/push
オウム返しを試してみよう
LINEアカウントに対して、メッセージを送るとあなたが送ったメッセージと同じメッセージが返ってきます。
改造するならリポジトリをフォークすれば
以上で、LINEチャットボットの簡単な試し方の手順説明は終わりです。プログラムの中身を知りたかったり、改造したい場合は以下のリポジトリにコードがあるので参考にしてください。
*1:Developer Trialであれば友達人数の最大が50人に制限されますが、無料でPush Messageを試すことができます。
TensorFlow User Group #3に行ってきました
TensorFlow User Group#3に参加しました。TensorFlowはデータフローグラフを用いた数値演算ライブラリです(2月15日にv1.0が出ました)。機械学習、Deep Learning周りへ応用されています。詳しく知りたい人は、Talk about ML and DL for happy engineer’s lifeを見て下さい。
TensorFlow User Group#3は、TensorFlowを実運用してみた話が中心です(奇数回は実運用、偶数階は技術の話)。
発表の様子がYouTubeで見られます
https://www.youtube.com/watch?v=dd7JdUVNP5Y&feature=youtu.be
ToC
- Dockerを使った機械学習基盤の構築と運用@Retty
- 口コミ文字列をソースとしたCharacter level CNNによる店舗属性の推定@Retty
- SENSYにおける深層学習活用事例とTensorFlowの悩み相談@カラフルボード
- MLPを用いたSSP収益の最適化@GMO AD MARKETING
超圧縮したまとめと所感
- 機械学習基盤はストレージを共有(NFS)したDocker環境を作ると便利
- 文字列データでもCharacter level CNNを使えば分類器が作れる(お問い合わせ分類もいけそう)
- モデルとコードをそれぞれ管理することは難しいので両方ともにデータベース(ソースコードごと!)に格納し管理する
- toC向けの機械学習はあまり行われていない(研究段階)
- TensorFlowはユーザコミュニティが大きく、Githubでどのライブラリよりも人気
- 機械学習自体はライブラリの恩恵を受けることで簡単に試すことができる
- 生成モデルについての評価はまだ確立されていない
Dockerを使った機械学習基盤の構築と運用@Retty
2016年12月にバズったRetty流『2200万ユーザを支える機械学習基盤』の作り方の詳しい解説です。
発表者
名前: Taruishi Masato(@taru0216) 略歴: Debian Project公式開発者 -> Red Hat -> Google (SWE/SRE) -> Rakuten -> Retty (CTO)
発表内容
マシンを組み立ててネットワークにつなぐと自動でインストールされるように構築
- どのマシンにログインしても同じデータがある(NFS)。そのため、マシンが重くなっても別のマシンに接続して作業が継続できる。
- Jupyterをインストールして、SSHだけでなくブラウザでも操作ができる(デザイナやディレクタが触る環境を用意している)。
nvidia-smi
でGPUを知れるのでさくっと適切なマシンに入れる。
アーキテクチャ
- Rubuntu(Retty Ubuntu) ServerとKubernetes、Juju、MAASを使っている
- 開発者はDockerコンテナを使う
- Dockerなので、手元のマシンでも動かすことができる
Dockerによって環境を持ち運ぶ(Infrastructure as Code)
- Dockerによってセットアップを容易にしている
- すべてのDockerイメージはコアDocker(
retty2-runtime-core
)から継承している - 手元のマシンを動かすときには
retty2-runtime-dev
というdockerを用いる
環境を健全に、容易に利用するための工夫
- シェルプロンプトにビルドバージョンを表示するようにして、混乱しないようにする
- docker buildは、
configure && make -j
で依存を解消しながらビルドする - Circle CIと組み合わせて、プルリクがきたら
docker build
が自動で走るようにしている - KubernetesのDeamon Set機能で全マシンにデプロイするような仕組み
- Kubernetes自体は、Juju & MAASでネット自動インストール
口コミ文字列をソースとしたCharacter-based CNNによる店舗属性の推定
- 文字単位(Character-based)CNNによる口コミ分類
- 口コミからこのお店がデート向けか判別する判別器を作った
- CNNで日本語の自然言語処理が簡単にできる
スライド
TFUG#3 RettyにおけるDeep Learningの自然言語処理への応用事例
関連記事
character-level CNNでクリスマスを生き抜く
発表者
名前: 氏原淳志(Retty株式会社) 略歴: 薬学部 -> Retty株式会社
発表内容
- CNNで日本語の自然言語処理が簡単にできるよ。
- 問題: 単語の切れ目がわからない。
分かち書きが必要
救世主: CNN
- 画像分類のコンテストでCNNを用いたチームが優勝。自然言語でも使えるかも
- 文字列をベクトル化する必要がある
- Word2vecというGoogleのライブラリで、言葉をベクトル化できそう
- 実は、Word2Vecは、単語をベクトル化している。→単語分割が必要→分かち書き→本末転倒
1文字ずつCNNすればいいじゃん
- 画像を対象にしたCNNでは、1pxごとにCNNへ入れている
- 同じ発想で、1文字ずつCNNに食べさせればいいじゃん
- Character-level CNNと呼ばれる技術
Character-based NNの手順
- 文字列をID化する必要がある
- Unicode値を使う
- 埋め込み表現を学習させる→グレースケール画像と同じ!→あとはCNNに食わせるだけ
- ただし、CNNのカーネルサイズは横にN。つまり1文字分。縦は2,3,4,5の複数サイズ。これはN-gramをCNNに学習させている。
まとめ
- デート目的店口コミと判断される口コミが多い店はデートに使えるのでは?
- 20万口コミ(デート目的店の口コミ10万 + その他10万)で、Accuracyは83%
- 重要: 教師作りのソルジャーが必要。最低、数万欲しい。数10万欲しい。
SENSYにおける深層学習活用事例とTensorFlowの悩み相談@カラフルボード
TensorFlowを含む深層学習の活用事例を紹介してもらった
発表者
名前: 武部雄一(カラフルボード)
スライド
SENSYにおける深層学習活用事例とTensorFlowの悩み相談 - TFUG#3
発表内容
広告CVR予測 with TensorFlow
- マーチャントとパートナーの特徴量作成にオートエンコーダーを利用。RBFNを用いて、CVRの予測回帰モデルを作る
- TensorFlow利用
- 直近三ヶ月のCVRをもらった。膨大なクリックログ
ヒューマンオペレーションvs人工知能
- 人による平均値をはるかに越える結果になった
- 入力層1000次元。中間層200次元。出力層1000次元。autoencoder
- 1000次元はユーザの数(パートナーのサイトを特長付けるユーザ数)
- シグモイド関数を使った
ファッションアイテムの推薦最適化
- 感性特徴空間を作成
- 服に関する感性の二次元ヒートマップ
- 画像特徴量をt-SNEで二次元に落とし込み、各画像の推定スコア(CNNの出力値)。chainerを使ってやった。
応用: 商品企画の方向性検討
商品企画の方向性検討 需要予測・MD計画の最適化
可視化されていると顧客と共通認識を持ちやすい。
より好みにマッチするアイテムの提案
TensorFlowにまつわる2点の悩み
過去に蓄積してきたモデルの流用が難しい。
- モデルの変換が絶望的。
- 解決方法はたぶんない
デバッグがしんどい
- chainerは行列計算にNumpyを使っているCupy
- 実行しながらモデルを作れる
- stacktraceも置いづらい。
TensorFlowの魅力
- 指示者が多く、コミュニティも熱狂的
- 分散学習(Google Cloud ML, YahooによるTensorFlowOnSpark)
- 学びやすさ
- しょういちじかんで、opsノード、エッジ、データフロー構造、sess.run()といった基本的な構成要素を理解し、遊び始めラエル。Kerasはすごい簡潔
まとめ
- 分散学習をかきたいときTensorFlowは便利
- ヒートマップ作成例のようなヴィジュアライゼーションにも良い!
NNで広告配信のユーザ最適化をやってみた
発表者
名前: 勝田隼一郎 略歴: 宇宙高エネルギー物理学 -> GMOインターネット次世代システム研究室データサイエンティスト兼アーキテクト
発表内容
- インフィード広告を配信するようなアドネットワーク(AkaNe GMO AD MARKETING)にユーザごとに、より適切な広告を配信したい
実際につかったモデル(MLP)
- 匿名ユーザごとに特徴量をつくる
- 配信履歴よりclickしたUser、してないUserにわける(0/1)
- これを教師データとしてMLPで学習を行い、インプットされた特徴量に対してclick率のようなものを求める
- 確率の高いユーザを推薦ユーザとして配信ターゲットとする
入力から出力までの流れ
- INPUT→生データ: 匿名ユーザのウェブ行動履歴、どのウェブサイトを見たか(スパース)
- スパースなデータを少ない次元のベクトルに押し込む(embedding)
- →OUT: モデル(MLP)のfeature
Embedding by ALS
- UU: 数千万人を扱うため、Apache SparkのMLlibのALS(Alternating Least Squares)を用いた。Embeddingをした。
- MLPに食べさせるために、各ユーザについてALSする
まとめ
- ABテストの結果、CTRが150%改善!
- 関連記事: https://cloudplatform-jp.googleblog.com/2017/02/gmo-bigquery-tensorflow-google-cloud-platform.html
聞いてきたこと
- Jupyterでも限界がある
- ソースコードと精度の結果をすべてDBに入れる。モデルの名前も入れる
- デプロイはまだ研究段階
- 誰でもさわれるような環境を用意する
- Infra as a Codeなので継承して目的別にDockerを管理すると良い
イベントレポート「Shibuya.lisp #48」
Shibuya.lisp #48に聴衆として参加しました。Shibuya.lispは、毎月開催されるLispユーザの交流の場です。僕が参加し始めたのは、Lisp Meet Up presented by Shibuya.lisp #38 - connpass からです。
Shibuya.lispの参加者は年齢層が広く、個性豊かでとても楽しいです。
Twitterハッシュタグ
Twitterでは、 #lispmeetup
で、参加者が各々好き勝手にコメントしています。当日の雰囲気がわかるかもしれません。
モーメント
開催中僕が実況していたので、それらをモーメントとしてまとめ直しました。興味のある人は見てみてください。
発表は2件とも機械学習の話
今回の発表は、2件とも機械学習の話。両方とも、自作したCommon Lispライブラリを活用した機械学習について話していました。
- 『Deep Latent Spaceにおける汎用プランニング』
- 『cl-online-learningによる文書分類』
Deep Latent Spaceにおける汎用プランニング
日本では、Deep Learningがとても注目を集めています。世の中には、Deep Neural Networkがすべてのタスクをこなしてくれる銀の弾丸だと思っている人もいますが、そうではありません。と、Asaiさん。
Deep Neural Networkは、反射的・直感的なタスクには有効だが、さらに抽象度の高い行動計画は難しいらしいです
Deep Neural NetworkとAI研究の融合
機械学習やDeep Learningの先にある、行動計画のための推論・探索、論理も重要だと述べていました。 Asaiさんは、Autoencoderによって圧縮したデータ列をドメイン非依存ソルバに食べさせて、8パズルを解くアイデアを実現していました。
研究中に制作されたライブラリbit-ops
上記の研究の中で、ビット演算を高速に行うライブラリbit-opsを開発したことを明かしました。 どのようなアルゴリズムかは僕はまったくわかりませんが、コンパイラで使うようなアルゴリズムを利用していたのがとても印象的です。
Common Lispでビット演算を行っていると大量のconsingが作られて、思うようなパフォーマンスがでなくなることがきっかけでライブラリを作ったと話していました。
cl-online-learningによる文書分類
この発表では、msatoiさんが作成したライブラリの紹介をしてくれました。Common Lispで書かれたオンライン学習用ライブラリ(cl-online-learningの紹介です。
cl-online-learningを利用してlivedoor ニュースコーパスを文書分類したとのことです。 文書分類などの研究では有名な、tf-idfという特徴量を用いて、分類したところ深層学習で行ったものとくらべて高速で精度が高かったと発表していました。
それぞれのアルゴリズムは得手不得手があるので、ちゃんと調査しましょうと暗におっしゃっていました。
発表時のスライド
www.slideshare.net
紹介されたライブラリcl-online-learning
次回は2月23日のClojure回
次の開催は、2月23日です。もうすでに募集が始まっているので、Lispが気になっている人はぜひ参加してください!
イベントレポート「ゼロから始めるCommon Lisp入門」
1月9日に関内で行われた「ゼロから始めるCommon Lisp入門」へ行ってきました。参加を逃してしまった人は、大阪でも開催を予定しているのでぜひともそちらにご参加ください!
ゼロから始めるCommon Lisp入門(関西) | Peatixpeatix.com
講習会の簡単な紹介
Common Lispを広めるために企画された講習です。 プログラミングしたことはあるけどCommon Lispは触ったことない人(あるいは初心者)向けや、人工知能ブームのときに流行ったLispに興味を持つ人向けを対象にしていました。
開催地域である関内
みなとみらい線で、馬車道駅から降り立つと、洋風な建物に囲まれて驚きました。関内は、外国人居留地として有名*1なので、その影響ですね。
講習会会場
講習会の会場は、奉生ビル2FのさくらWORKS<関内>です。かっこいい人が受付を担当していました。のちの紹介でその方は、#:g1: frontpageのブログ主だということを知ります*2。
講師の小出さんからは、「Lisp考古学者」と呼ばれていました。長い歴史を持つLispの過去を題材に多くの記事を書いている方です。去年の12月には、レトロLisp アドベントカレンダーを一人で25日間書ききっています。すごい! qiita.com
講習会参加者の年齢層
大学4年生から、60歳くらいまで異様に広い年齢層の方が参加されていました。僕と隣席になった方は、僕と25歳も年齢が離れていて驚きました。歴史の長い言語だとこういうことがあります。若い方はごく少数で、多くの方が40歳以上に見えました。
講師の人工知能学者: 小出さん
Wi-Fiとメモをセットアップして、待機していると初老の男性がスクリーン前で話を始めました。講師の小出さんです。
小出さんは、人工知能を研究している方でオントロジーを実現普及するために精力的活動を行っています。 また、Linked Open Data Initiativeの監事を務めているようです。講習会終了後に開催された交流会では、Linked Open Dataに対する強い思いを聞くことができました。
小出さんは、Common Lispを広めたいという思いが強く、要望があれば無料でも講習会を開くとおっしゃっていました。今回の講習会は一般2000円で参加料を集めていますが、会場費に充てているそうです。
Common Lispと人工知能
講習は、Lispの説明から始まります。なぜ今Lispなのか、Deep Learningは結果が説明困難であるとか、Lispと人工知能を取り巻く環境について小出さんは語ります。人工知能研究界隈でのこぼれ話やDeep Learningはどう思われているのかなどの話が、研究者視点の話が聞けたことに感動しました。なかなか聞く機会ないですもの。
Common Lispを触る環境
今回、選ばれたCommon Lisp開発環境は、Allegro CLです。僕は普段Vim+slimvでSBCLを使っていいます。この講習会で初めて商用のCL環境を使いました。
macOSユーザは、事前準備しておいたほうが良い
Windowsでのインストールは簡単のようでしたが、macOSへのインストールには手こずりました。隣席の方は、非常に苦しんでいたので途中でWindowsに切り替えるなりして対応していたようです。もし、参加される方は予めインストールを試しておくと講習がより楽しめると思います。
macOSへのインストールは明らかにインストール手順が多いので注意が必要です。英語読みながら、terminalを利用するので、プログラミング経験が浅いと、かなり辛いと思います*3。
Emacs+SLIMEでも大丈夫
Common Lispの開発環境といえば、Emacs+SLIMEが有名です。もし、それが利用できる人は、そちらを利用してもまったく問題ありません。僕はVim+slimev(SBCL)を利用しました。
Emacs+SLIMEの環境を構築したければ、以下の記事が参考になります。Emacsというエディタを初めて使う人は、保存方法と終了方法、ESC(エスケープキー)を覚えておけばなんとかなると思います。詳しい操作方法はEmacsについて調べてみてください。
いざ、LISPに入門
最初に、Common Lisp特有の括弧の多さとポーランド記法に慣れてもらうために簡単な演算を教えてもらいます。(+ 1 2 3)
のようなものです。このような括弧で囲まれた文字列をS式とLISPでは呼びます。
インタラクティブな環境でプログラミング
S式を実際に評価するために、REPLを使います。REPLでは入力されたS式を評価し、評価結果を表示します。例えば(+ 1 2 3)
は6と評価され表示されます。このような1行1行入力して、インタラクティブに実行することができる環境はLISPが初めてだったと説明していました。
今では、RubyやPythonなど有名なプログラミング言語にもインタラクティブな実行環境が付随していることが多く、その点の優位性は薄いと補足していました。また、このインタラクティブな環境は、手探りだった人工知能研究で求められて開発されていたものだと聞きました。探索的プログラミングと呼ぶらしいです。トップダウンに設計し、実装する従来の方法と対になっています。
人工知能とLISPの歴史は、小出さんの論文を読もう
人工知能とLISPの歴史は、小出さんの解説論文「人工知能用言語Lispの今と将来」が詳しいです。実はこの論文、講習会の各個人の机の上に用意されていて、参加者は1部ずつもらえました。
LISPの論文を手に入れた pic.twitter.com/03oC7YQRSF
— ( ˘ω˘ (@tamanobi) 2017年1月9日
手をたくさん動かす講習会
講義自体は、解説と演習の繰り返しで手を動かして身につけるフローが徹底されていました。実際に手を動かしまくるところに、探索的プログラミングの一端を感じます。
はまりどころをしっかり教えてもらえる
Common Lispは仕様が膨大だということもあってハマりどころは多いです。小出さんはそこのところをしっかりと教えていました。例えば、命名規則が曖昧な部分があってnullp
とnull
どちらが正しいかわからなくなること、nil
と'()
(空リスト)はCommon Lispでは区別できないことなど、必要となるタイミングで説明してくれていました。
講習会で取り扱ったトピックは、再帰まで
講習会ではCommon Lispの以下のトピックを扱いました。最後の再帰呼び出しの箇所はそれなりに難しく、プログラミング初心者からしてみたらつらいだけだったかもしれません。
- Allegro Common Lisp Expressの導入
- シンボル・S式
- 演算・数学演算・関数定義
- setqと副作用
- リスト操作(list/append/consなど)
- 連想リスト(assoc)
- 条件分岐(if/cond/case)
- 述語(listp/atomp/endpなど)
- 再帰
講習会の内容は、小出誠二さんが電子書籍として出版された『Common Lisp と人工知能プログラミング』に基づいています。再帰まで行くと3章の最初まで到達できたことになります。
質問タイム
再帰呼び出しまで駆け足気味で、走り抜けたあと質問タイムが設けられました。
そこでは、人工知能プログラミングに期待している参加者は多いようで、LISPでどのような人工知能が作れるのかという質問をしていました(まぁ、そうなるよね)。プログラミング言語としてのLISPの優位性についても議論が白熱し、参加者の関心は高かったようです。
実践導入したいという参加者からの声の中で、Excelで使えないだろうかという素朴な疑問を耳にして、その積極性に圧倒されました。Common Lispではないですが、JVM上で動くClojureというLISP方言があります。JVMで動く恩恵を受け、Javaライブラリを使えばそこまで難しくないでしょう。
質問は意外にも多く、寄せられてかなり活発な雰囲気で、会場は交流会へ移りました。
交流会
講習会は終了して、近くの居酒屋に入りました。講習会から交流会に参加したのは8名ほどでした。ソーシャルゲームのバックエンドをLISPで書いている話や、単語共起分析の手法をLISPで行うにはどうしたらいいかという議論や、LISPのプログラミング言語としての優位性(再来)、Deep Learningのチューニングの話、Shibuya.lispや実践Common Lispの話、Linked Open Dataの話、横浜市のウェブサイト制作が大変な話、とある大学生の人生相談、LISPのデプロイメントシステムの話など、とんでもなく広い話題で盛り上がりました。
人工知能研究でLISPが実際にどのように使われているかとか、LISPで動いているソフトウェアなど聞きそびれた話題はたくさんありますが、楽しかったです。
ただ、入った居酒屋のガーリックフライドポテトがあまり美味しくなかったことが残念でした。
講習会の感想
僕が受講して感じたことをまとめます。
大学の講義みたいだった
講習会の内容は、小出誠二さんが電子書籍として出版された『Common Lisp と人工知能プログラミング』に基づいています。コラムをはさみながら、テキストを順に追うため、刺激が少ない印象を受けました。
講習会の初めに、LISPが使われている具体的なプログラムを紹介したり、コツコツとした演習が将来的に役立つ姿を想像させるような講習の作りにすると初心者が興味を持ったまま、受講できるような気がします。
時間的な都合でしようがないですが、マクロの話がなかったのも少々残念です。
プログラミング中級者向け
Common Lisp以外のプログラミング言語で実際にプログラムを作った経験がないと、講習をスムーズに受講するのは難しいように感じました。
LISPの重要な面白みである、再帰プログラミングへ受講者を導くために後半はかなりハイペースで進行していたためです。再帰プログラムなどは、さくっと解けるものが少ないので、初心者が食らいつくのはかなり大変そうでした。
また、一度置いて行かれてしまったときに、電子書籍『Common Lisp と人工知能プログラミング』を購入していないと、テキストを参照する方法がないので、おいていかれるとかなり辛い思いをします。
丁寧にスタートできる
プログラミング言語や、新しい物事にチャレンジするときは、参入障壁を取り除くことが重要です。特にCommon Lispは日本語文献が多くなく、入門しようとしても本は絶版だったりと、なかなか挑戦しづらいプログラミング言語です。その点、この講習会では開発環境の導入から、電子書籍の紹介や基礎の基礎からの講習を教えてもらえるので、「やりたいんだけど、手が止まっている」ような人にはもってこいだと思います。
ただし、内容は書籍を順に追う形になっています。ひとりでもくもくと書籍を進められる人には、この講習は不要かと思いました。もちろんたくさんのLisperと出会える機会ですから、参加する価値はあると思います。
要望
講習を終えた感想を踏まえて、要望をまとめます。
- Allegro Common Lisp ExpressをmacOSへインストールするのがめんどくさいので、あらかじめ入れてきてもらったほうがよさそう
- プログラミング初心者へ講義するなら、実用例を紹介してからコツコツと基礎を教えるとよさそう
- 講習を終えて、今後どのような勉強をすればいいのか、参考文献を示してほしい(『実践Common Lisp』や、『Land of Lisp』、『実用Common Lisp』など)
- 最近のLisp界隈の雰囲気など紹介してもらえると嬉しい
「ゼロから始めるCommon Lisp入門」のまとめ
- この講義で人工知能プログラミングが身につくわけではない
- 基礎からCommon Lispを教えてもらえる良い機会
- 人工知能とLISPの関係について知ることができる
- Common Lispに触ってみたいプログラミング中級者におすすめ
- Common Lispの最新事情(roswell)に詳しくはなれない
『簡約! λカ娘』で、ラムダ式とチャーチ数がわかった
ラムダ式とチャーチ数、SKIコンビネーターが理解できる同人誌『簡約! λカ娘』を紹介します。先輩から勧められて読みました。先輩は良著と評していましたが、その通りとてもわかりやすかったです。
ラムダ式やチャーチ数、SKIコンビネーターなどの言葉は知ってるけど具体的にはわからないという人におすすめです。
書影がイカしてる
まず、タイトルがイカしてる。イカ娘のイがλ(ラムダ)に置換されていたり、侵略がβ簡約の簡約に置換されていたりしてセンスを感じる。
イカ娘はSchemeがお好き
同人誌中で出てくるλカ娘はプログラマーという設定で、LISP処理系のひとつSchemeが大好きなようです。本文中では、Haskellも登場します。
ラムダ式から、チャーチ数、チャーチ数とラムダ式を使った足し算の表現、SKIコンビネーター計算の紹介などが丁寧に解説されていました。λカ娘娘が「ゲソゲソ」言いながら解説してくれるので、飽きずにさらっと1時間くらいで読み終わりました。
読者が熱くなれる第3章「関数型イカガール」
関数型の配列操作について考える章が最もHOTでした。何度も読み返したくなる章です。
immutableなデータ構造によって配列操作を愚直に実装すると、mutableなデータ構造に対する配列操作と比べてパフォーマンスが極端に落ちるという問題を攻略するための工夫がわかります。この章を読んで、immutableなデータ構造ならimmutableなデータ構造用の最適化の方法がしっかりと確立していることを知りました。
紹介されているトピック
配列操作をどう扱うかというテーマに沿ったきれいな論旨展開が印象的でした。
- Linear Type
- Stream Fusion
- Recycling
- Deforesting
公式サイト
C80で頒布された同人誌らしい。今から5年くらい前ってことですね。
購入先
メロンブックスで委託しているようです。まだ買えます。
まとめ
ソフトウェア開発プロセスを学べる小説『デッドライン』を紹介します
会社で働くようになって、10ヶ月が経過しました。
関わったプロジェクト
会社では、以下のプロジェクトを担当し、遂行しました。 どのプロジェクトも、すでに存在するシステム上での構築だったため、既存のコードリーディングから行っています。
- ある社内システムの構築(5名→2名)
- 変更不可能だったデータから依存をなくして、変更可能にするプロジェクト(1名)
- 登録を簡略化し、新規導線を強化するプロジェクト(1名)
- サービスの連携基盤に特殊な変更を加えるプロジェクト(1名)
下の3つでの実作業者、一人で担当しています。別途、随時レビューは受けていました。
1人でプロジェクトを遂行する上での問題
変更を加えるそのシステムに精通していない1人の人間が、プロジェクトを担当すると当然のように問題が置きます。
- システムへの理解不足・考慮漏れによるバグ・エラー
- 規模感の過小評価によるスケジュール遅延
上記の1番目は十分周知したり、レビューを頻繁に受ければ、起こりにくくなる問題です。しかし、2番目はそのような工夫では根本的解決はできません。
個人の意識を変える必要があります。
『デッドライン』
私は、一時期スケジュール遅延が多く、マネージャーから「ある先輩から本を教えてもらいなさい」という指示を受けました。 その先輩から勧められた本は『デッドライン』という本です(参考書評: 名著!「デッドライン」: わたしが知らないスゴ本は、きっとあなたが読んでいる)。
この本は小説です。とあるソフトウェア管理者が大規模プロジェクト6つを掛け持ちします。途中、途中に無茶難題を押し付ける上長と戦ったり、どうしたらソフトウェア開発プロセスを短縮できるかと考えたりする物語です。ウォーターフォールのソフトウェア開発のプロジェクトについてよく書かれています。
小説自体がよくできているため、すらすらと読めてとてもおもしろかったです。2日間で読み切ってしまいました。
この本は、個人のスケジュール遅延を簡単に解消する物ではありません。しかし、スケジュール遅延がどのような要因で生じるのか、ソフトウェアを効率的開発するにはどうするのが良いのか、学ぶことができます。
疑問
『デッドライン』を読んで思ったのは、今のアジャイル開発とはどのように違うのだろうという点です。まだ結論はでていません。
私は先の本よりも、『アジャイルサムライ』という本を先に読んでいました。アジャイルという聞きなれない言葉に「従来のソフトウェア開発よりも画期的なんだろう」という雑然とした思いを抱いていました。しかし、『デッドライン』を読み、そうでもないのかもしれないと感じています。
アジャイルが何を解決して、何を解決していないか調べる必要がありそうです。
LINE BOTを触った
LINE BOTを始めとする、ChatBotは新しいインタフェースだと思っています。いろいろ調べたり、試したりしたリンクを貼っておきます。