kerasでモデルを結合する

autoencoderなどを作っていると、保存や推論を行う上での再利用性を考え、encoderとdecoderは分けてModelを作りたいことがある。 autoencoderの学習の際には、作成したencoderのModelとdecoderのModelを結合する。 Modelの結合は前はできなかった

Rustでmodule間にまたがるmacro呼び出し

Rustのmacroをモジュール化して、別のモジュールから呼ぼうと思ったらうまくいかなかった。 日本語の記事があまりなかったのと、自分の備忘録ようにメモを残しておく。 rustのバージョンは1.27.0 参考 https://github.com/rust-lang/book/issues/401

SeqGANの論文を読む

SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient https://arxiv.org/pdf/1609.05473.pdf SeqGANの論文を読んだのでまとめておきます。実装を行おうと思って読んだので手法をメインに読

word2vecでベクトルから単語を出力する

word2vecで単語をベクトルにしたり、類似度判定した記事はたくさんあるが、ベクトルから類似単語を出力する日本語記事を見つけられなかったのでメモ。 stack overflowにあった。 https://stackoverflow.com/questions/32759712/how-to-fin

自然言語処理シリーズの構文解析を読む(概要)

はじめに 自然言語処理シリーズの構文解析を読んでいきます。 全体の概要把握:1時間 中身の細かいとこ:3時間 という感じで読み進めて行こうと思います。 概要 構文解析を用いることで、単語の並びの背後にある文法的な構造を明らかにすることができる。構文解析を学ぶことで、自然言語処理で用いられる様々な先人

文字をベクトル化する

文章生成にchar-level lstmを使ってみる。英語ではうまくいっている例があるが日本語では難しい。これは、日本語は英語に比べ文字数が多く、ニューラルネットワークの次元数(パラメータ数)が増やす必要があるのが原因の1つだと思う。また、次元削減のため、日本語では文章を単語に区切り単語をベクトル化