
前提として、以下の記事ようにTensorFLowSharpの導入が済んでいること。
C#でTensorFlowを動かす。
直接、C#のコードでグラフを作成しようとしたが、どうやら先人たちはPython上でグラフを書き、学習モデルを作成後、それを他の言語上で読み込んでいる。
モデルを読み込む際に、Android(Java)やC++上でも同様であるが、チェックポイント(シリアル化された変数)のエクスポートデータを直接読込むことはできないので、プロトコルバッファ(シリアル化されたグラフ)にチェックポイントをマージしなければ使うことができない。つまり、変数の状態をもつプロトコルバッファを作成する。
グラフとテンソルデータの両方を出力するためには、VariablesをConstantに変換後、再度グラフを作成してProtocolBuffersファイルとして出力する必要がある。
方法としては、2つあり、手動で変換する方法と、自動で変換する方法がある。今回は両方法を示す。
実行環境
macOS Sierra
TensorFlow on python3: 1.0.0
TensorFlow on c#(c): 1.0.0-rc0
Python 3.6.0
Visul Studio for Mac ver 7.0.1
model作成
まずは、以下のCNNのモデルを作成する.
input_data.pyを、ここから落として、model.pyの同層に配置する。
# -*- coding: utf-8 -*-
from __future__ import absolute_import, unicode_literals
import input_data
import tensorflow as tf
import shutil
import os
# モデルの出力先
export_dir = './models'
if os.path.exists(export_dir):
shutil.rmtree(export_dir)
os.mkdir(export_dir);
else:
os.mkdir(export_dir);
# 勾配消失問題を防ぐために小さなノイズで重みを初期化する2つの関数
'''
Weight Initialization
To create this model, we're going to need to create a lot of weights and biases.
One should generally initialize weights with a small amount of noise for symmetry breaking,
and to prevent 0 gradients. Since we're using ReLU neurons, it is also good practice to initialize
them with a slightly positive initial bias to avoid "dead neurons." Instead of doing this repeatedly
while we build the model, let's create two handy functions to do it for us.
'''
def weight_variable(shape):
initial = tf.truncated_normal(shape, stddev=0.1)
return tf.Variable(initial)
def bias_variable(shape):
initial = tf.constant(0.1, shape=shape)
return tf.Variable(initial)
# 畳み込み層
def conv2d(x, W):
return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
# プーリング層
def max_pool_2x2(x):
return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
strides=[1, 2, 2, 1], padding='SAME')
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
# グラフを作成する
g = tf.Graph()
with g.as_default():
x = tf.placeholder("float", shape=[None, 784])
y_ = tf.placeholder("float", shape=[None, 10])
# 第一レイヤー
# [5, 5, 1, 32] は最初の5,5はパッチサイズ,1は入力チャンネル数,32は出力チャンネル数
W_conv1 = weight_variable([5, 5, 1, 32])
b_conv1 = bias_variable([32])
x_image = tf.reshape(x, [-1, 28, 28, 1])
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
h_pool1 = max_pool_2x2(h_conv1)
# 第二レイヤー
W_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
h_pool2 = max_pool_2x2(h_conv2)
# 全結合層
# チャネルを全て平坦化する。
W_fc1 = weight_variable([7 * 7 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
# 過学習制御のためのDropout
keep_prob = tf.placeholder("float")
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
# 読み出し層
# 第一層と同様にsoftmax(ロジスティック回帰)を追加する
W_fc2 = weight_variable([1024, 10])
b_fc2 = bias_variable([10])
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)
# モデルの学習と評価
cross_entropy = -tf.reduce_sum(y_ * tf.log(y_conv))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
# セッションを作成し、変数を初期化する
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
# 学習を開始する
for i in range(20000):
batch = mnist.train.next_batch(50)
if i % 100 == 0:
train_accuracy = accuracy.eval(
{x: batch[0], y_: batch[1], keep_prob: 1.0}, sess)
print("step %d, training accuracy %g" % (i, train_accuracy))
train_step.run(
{x: batch[0], y_: batch[1], keep_prob: 0.5}, sess)
# スコア表示
print("test accuracy %g" % accuracy.eval(
{x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0}, sess))
参考
https://github.com/miyosuda/TensorFlowAndroidMNIST/blob/master/trainer-script/expert.py
TensorFlow 畳み込みニューラルネットワークで手書き認識率99.2%の分類器を構築
手動で変換する方法
学習後に、Variableの値をevalで取り出して、Constantにする。
流れとしてはViriables -> ndarray -> Constantと変換する。その後、Constantでグラフを再構成して、プロトコルバッファとして書き出す。名前は、C#上でモデルを読込むときに対応させるためのもの。
with tf.Session() as sess:
...
# Viriablesの内容をndarrayに変換する
_W_conv1 = W_conv1.eval(sess)
_b_conv1 = b_conv1.eval(sess)
_W_conv2 = W_conv2.eval(sess)
_b_conv2 = b_conv2.eval(sess)
_W_fc1 = W_fc1.eval(sess)
_b_fc1 = b_fc1.eval(sess)
_W_fc2 = W_fc2.eval(sess)
_b_fc2 = b_fc2.eval(sess)
# ndarrayをConstantに変換後、新しいグラフを再構成する。
g_2 = tf.Graph()
with g_2.as_default():
# 入力ノードは"input"とする。これは、.pb を読み込むときに指定する。
x_2 = tf.placeholder("float", shape=[None, 784], name="input")
W_conv1_2 = tf.constant(_W_conv1, name="constant_W_conv1")
b_conv1_2 = tf.constant(_b_conv1, name="constant_b_conv1")
x_image_2 = tf.reshape(x_2, [-1, 28, 28, 1])
h_conv1_2 = tf.nn.relu(conv2d(x_image_2, W_conv1_2) + b_conv1_2)
h_pool1_2 = max_pool_2x2(h_conv1_2)
W_conv2_2 = tf.constant(_W_conv2, name="constant_W_conv2")
b_conv2_2 = tf.constant(_b_conv2, name="constant_b_conv2")
h_conv2_2 = tf.nn.relu(conv2d(h_pool1_2, W_conv2_2) + b_conv2_2)
h_pool2_2 = max_pool_2x2(h_conv2_2)
W_fc1_2 = tf.constant(_W_fc1, name="constant_W_fc1")
b_fc1_2 = tf.constant(_b_fc1, name="constant_b_fc1")
h_pool2_flat_2 = tf.reshape(h_pool2_2, [-1, 7 * 7 * 64])
h_fc1_2 = tf.nn.relu(tf.matmul(h_pool2_flat_2, W_fc1_2) + b_fc1_2)
W_fc2_2 = tf.constant(_W_fc2, name="constant_W_fc2")
b_fc2_2 = tf.constant(_b_fc2, name="constant_b_fc2")
# 学習後のデータを出力するだけなので、ドロップアウトは入れなくて良い
# 出力ノードは"output"とする。入力ノードと同様に.pb を読み込むときに指定する。
y_conv_2 = tf.nn.softmax(tf.matmul(h_fc1_2, W_fc2_2) + b_fc2_2, name="output")
with tf.Session() as sess_2:
init_2 = tf.global_variables_initializer();
sess_2.run(init_2)
# グラフを ProtocolBuffersファイルとして書き出す。
graph_def = g_2.as_graph_def()
tf.train.write_graph(graph_def, export_dir, 'Manual_model.pb', as_text=False)
# 訓練後のモデルのテストを行う
y__2 = tf.placeholder("float", [None, 10])
correct_prediction_2 = tf.equal(tf.argmax(y_conv_2, 1), tf.argmax(y__2, 1))
accuracy_2 = tf.reduce_mean(tf.cast(correct_prediction_2, "float"))
# スコア表示
print("check accuracy %g" % accuracy_2.eval(
{x_2: mnist.test.images, y__2: mnist.test.labels}, sess_2))
参考
https://github.com/miyosuda/TensorFlowAndroidMNIST/blob/master/trainer-script/expert.py
TesorFlow: Pythonで学習したデータをAndroidで実行
自動で変換する方法
TensorFlowで学習してモデルファイルを小さくしてコマンドラインアプリを作るシンプルな流れ
上記の記事のようにfreeze_graph.pyは使おうとしたが、エラーが何度も出て、r12の新しいモデル形式への未対応やpython3のとき引数が増えたりするので面倒になり、使わないことにした。
そのため、今回はconvert_variables_to_constants()のみを使った。
モデルの学習後に、convert_variables_to_constants()でvariableからconstantへ変換後、プロトコルバッファとして書き出す。
ただし、手動で変換していたときは、グラフの再構成するときに各ノードに名前をつけていたが、今回は学習を行ったグラフを変換するため、各ノードに名前をつけておく必要がある。この名前がC#上で読込むときに対応する。
with g.as_default() as gr_def:
x = tf.placeholder("float", shape=[None, 784], name="input")
y_ = tf.placeholder("float", shape=[None, 10], name="labels")
...
keep_prob = tf.placeholder("float", name="dropout")
...
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2, name="output")
with tf.Session() as sess:
...
# variablesをconstantsに変換したグラフを生成する
# 出力ノードの名前を指定
converted_graph = graph_util.convert_variables_to_constants(sess, sess.graph_def, ['output'])
# プロトコルバッファとして書き出し
tf.train.write_graph(converted_graph, export_dir, 'Auto_model.pb', as_text=False)
参考
http://tyfkda.github.io/blog/2016/09/14/tensorflow-protobuf.html
読込み及び推測
手動での変換と、convert_variables_to_constants()を用いた変換では、モデルの実行方法が少し異なる。
手動での変換では推論では使わないDropoutは入れてないが、convert_variables_to_constants()で変換したときDropoutのplaceholderはそのままなので、実行時に値を入れる必要がある。
以下に手動で変換したときに書き出したモデルのManual_model.pbの読込み及び推測のコードを示す。
using System;
using System.Runtime.CompilerServices;
using System.Runtime.InteropServices;
using TensorFlow;
using System.IO;
using System.Collections.Generic;
using Learn.Mnist;
using System.Linq;
namespace SampleTest
{
class MainClass
{
// Convert the image in filename to a Tensor suitable as input to the Inception model.
static TFTensor CreateTensorFromImageFile(string file)
{
var contents = File.ReadAllBytes(file);
// DecodeJpeg uses a scalar String-valued tensor as input.
var tensor = TFTensor.CreateString(contents);
TFGraph graph;
TFOutput input, output;
// Construct a graph to normalize the image
ConstructGraphToNormalizeImage(out graph, out input, out output);
// Execute that graph to normalize this one image
using (var session = new TFSession(graph))
{
var normalized = session.Run(
inputs: new[] { input },
inputValues: new[] { tensor },
outputs: new[] { output });
return normalized[0];
}
}
//開始モデルは、非常に特定の正規化されたフォーマット(特定の画像サイズ、入力テンソルの形状、正規化されたピクセル値など)
//でテンソルによって記述された画像を入力として取ります。
//このファンクションは、入力としてJPEGでエンコードされた文字列を取り込み、
//入力モデルとしての入力として適したテンソルを戻すTensorFlow操作のグラフを作成します。
static void ConstructGraphToNormalizeImage(out TFGraph graph, out TFOutput input, out TFOutput output)
{
// - モデルは28x28ピクセルにスケーリングされた画像で訓練されました。
// - モノクロなので表される色は1色のみ。(値 - 平均)/ スケールを使用してfloatに変換して使用する。
// 画素値を0-255 から 0-1 の範囲にするので、変換値 = (Mean - 画素値) / Scale の式から,
// Mean = 255, Scale = 255 となる。
const int W = 28;
const int H = 28;
const float Mean = 255;
const float Scale = 255;
const int channels = 1;
graph = new TFGraph();
input = graph.Placeholder(TFDataType.String);
output = graph.Div(
x: graph.Sub(
x: graph.Const(Mean, "mean"),
y: graph.ResizeBilinear(
images: graph.ExpandDims(
input: graph.Cast(graph.DecodeJpeg(contents: input, channels: channels), DstT: TFDataType.Float),
dim: graph.Const(0, "make_batch")),
size: graph.Const(new int[] { W, H }, "size"))),
y: graph.Const(Scale, "scale"));
}
// pythonで作成したモデルの読込を行う
void MNSIT_read_model()
{
var graph = new TFGraph();
//var model = File.ReadAllBytes("tensorflow_inception_graph.pb");
// シリアル化されたGraphDefをファイルからロードします。
var model = File.ReadAllBytes("Manual_model.pb");
graph.Import(model, "");
using (var session = new TFSession(graph))
{
var labels = File.ReadAllLines("labels.txt");
var file = "temp.jpg";
//画像ファイルに対して推論を実行する
//複数のイメージの場合、session.Run()はループで(同時に)呼び出すことができます。
//あるいは、モデルが画像データのバッチを入力として受け入れるので、画像をバッチ処理することができる。
var tensor = CreateTensorFromImageFile(file);
var runner = session.GetRunner();
// 学習モデルのグラフを指定する。
// 入出力テンソルの名前をsessionに登録する
// 手動で変換したモデルの読込のときは、.AddInput(graph["dropout"][0], 0.5f)はいらない。
runner.AddInput(graph["input"][0], tensor).Fetch(graph["output"][0]);
var output = runner.Run();
// output[0].Value()は、「バッチ」内の各画像のラベルの確率を含むベクトルです。 バッチサイズは1であった。
//最も可能性の高いラベルインデックスを見つけます。
var result = output[0];
var rshape = result.Shape;
if (result.NumDims != 2 || rshape[0] != 1)
{
var shape = "";
foreach (var d in rshape)
{
shape += $"{d} ";
}
shape = shape.Trim();
Console.WriteLine($"Error: expected to produce a [1 N] shaped tensor where N is the number of labels, instead it produced one with shape [{shape}]");
Environment.Exit(1);
}
var bestIdx = 0;
float best = 0;
// 尤も確率が高いものを調べて表示する
var probabilities = ((float[][])result.GetValue(true))[0];
for (int i = 0; i < probabilities.Length; i++)
{
Console.WriteLine(probabilities[i]);
if (probabilities[i] > best)
{
bestIdx = i;
best = probabilities[i];
}
}
Console.WriteLine($"{file} best match: [{bestIdx}] {best * 100.0}% {labels[bestIdx]}");
}
}
public static void Main(string[] args)
{
Console.WriteLine(Environment.CurrentDirectory);
Console.WriteLine("TensorFlow version: " + TFCore.Version);
var t = new MainClass();
t.MNSIT_read_model();
}
}
}
以下のlabels.txtとtemp.jpg、作成した学習モデルを実行ファイルと同層に配置する。
0
1
2
3
4
5
6
7
8
9
convert_variables_to_constants()で変換したときは、以下のようにコードを変更する。
var model = File.ReadAllBytes("Manual_model.pb");
↓
var model = File.ReadAllBytes("Auto_model.pb");
runner.AddInput(graph["input"][0], tensor).Fetch(graph["output"][0]);
↓
runner.AddInput(graph["input"][0], tensor).AddInput(graph["dropout"][0], 0.5f).Fetch(graph["output"][0]);
一応実行時の結果の画像を示す。
Manual_model.pbの実行結果
Auto_model.pbの実行結果
学習
C#上で学習をさせたくて、一からモデルを構築しようとしたが、最適化関数が一つしか見つからず、リファレンスもなくなってたので使い方が分からず詰んだ。また、python上でモデルをつくって読み込み後、グラフを再構築すればよいとも考えたが、チェックポイントファイルから最適化器のデータを取り除いてあるので、pythonので書いてもC#上では使えない。
今後の課題としては、最適化関数の使い方を知ってC#上で学習をさせたい。
- TensorFlowのチュートリアルのチュートリアル
- 【機械学習】scikit learnでの画像減色プログラム
- TensorFlow製アート・音楽生成プロジェクト「magenta」で曲を作ってみる。
- サカナクションさんをTensorFlow製アート・音楽生成プロジェクト「Magenta」に学習させてみる。
- pixivの機械学習モデルからアイドルのキャラクター性を計算してみたよ ζ*’ヮ’)ζ
- 非プログラマのための機械学習ツールKNIMEのご紹介
- 機械学習でお客様が他にも買いそうな商品を予測しようじゃないか
- Tensorflowの精度低下はlog(0)のせいだった
- 手書きひらがなの認識で99.78%の精度をディープラーニングで
- TensorFlow製音楽生成プロジェクト「Magenta」を開発環境の設定から曲生成までやってみる。
- AdaGradが学習率のスケジューリングを上手く調整してくれる理由 – 理論編 –
- TensorFlow製音楽生成プロジェクト「Magenta」でMIDIファイルを学習させ、曲を生成する。
- 論文要約: Learning both Weights and Connections for Efficient Neural Networks
- 自然言語入力処理のMicrosoft LUIS(日本語版)を使ってChatBotサンプルを作ってみる
- ILSVRCとは何か?
- Ubuntu16.04 + GTX1080 + CUDA8.0で 機械学習環境を構築する
- エロゲ製作でAIを使おうとした話
- 人はRubyだけで手書き数字認識できるか?
- PandasのCategorical関係を調べてみた~慣れれば便利(と思う)
- ニューラルネットワークのライブラリのインストール方法
- 確率的勾配降下法をadで実装してみた
- クラウド統合開発環境Cloud9でTensorFlowを使う~GetStarted~
- 深層学習フレームワークヒッチハイクガイドVer3.0
- Kerasでアニメキャラの顔認識
- paragraph2vecの論文 要訳 (Distributed Representations of Sentences and Documents)
- 問題が明確化できているときは、半分解けている
- Coursera Machine Learning スライドまとめ
- Coursera Machine Learning 総復習用メモ
- 機械学習用の画像切り出しツールを作る
- <初心者向け>pythonライブラリ<機械学習用>
- 代表的な機械学習手法一覧
- Deep Learning bookを読んで学んだこと
- データシティ鯖江のオープンデータを使って水位計の値を機械学習で予測してみる
- Recurrent Neural Networkの基礎(Peterさんのチュートリアルの翻訳)
- {tensorflow}をirisデータで試してみる
- Python 機械学習プログラミング 第1章 「データから学習する能力」をコンピュータに与える まとめ
- 【機械学習】手書き文字データで分類器のパフォーマンスチェックをしてみる
- Pythonで体験する深層学習 2章(輪講用資料)
- 直感のきく技術者になろう
- numpyだけでCNN実装
- JubatusでQiita記事を推薦してくれる日報アプリ作ってみた
- 機械学習(深層学習)で画像関連をやってみたい場合はじめに抑えておいた方がよいものは何か
- TensorFlowをWindowsでビルドする
- 統計学とデータ分析で儲ける作戦! 選挙のタイミングで儲けられる銘柄を、相関係数を用いて探す
- ディープラーニングでメイドインアビスの欠落文字を推定する
- PRML第1章 ベイズ曲線フィッティング Python実装
- pythonでRNN実装
- scikit-learnでDBSCAN(クラスタリング)
- ディープラーニングが分からなくてもいい感じに物体認識させるサービスを試す(iOS Swift + Bluemix Visual Recognition)
- 機械学習関連情報をトピックモデルで分類する
- Watson ConversationのTutorialを日本語でやってみた (前編)
- 活性化関数ReLUについてとReLU一族【追記あり】
- seq2seqで利用可能な日本語対話データセットをダウンロードするツール
- PRML第2章 スチューデントのt分布 Python実装
- メモリを操作するRNNでソートアルゴリズム(可変長&順序フラグあり)を機械学習できたよっ!
- Coursera Machine Learning (1): 機械学習とは?単回帰分析、最急降下法、目的関数
- 機械学習をざっくりと理解する
- 機械学習を始めて2週間、機械学習を始めるのに必要だったこと
- Vision APIとNatural Language APIを組み合わせて名刺から情報抽出する
- 名刺から情報を抽出するSlackBotを作る
- Jubatusを使った感情分析を行うLINE Botの作成
- ChainerでYOLO
- うまくいきそうにない技術
- アンサンブル学習(Stacked generalization)のサンプルプログラムと実行例
- f-divergence一族の可視化
- Coursera Machine Learningの教材に沿って協調フィルタリングを学ぶ
- Watson ConversationのTutorialを日本語でやってみた (後編)
- FXシステムトレードのプログラムをいくつか作ってみて分かった課題とその解決法について
- 機械学習の開発内容について(Example)
- KerasでDCGAN書く
- Kaggleまとめ:BOSCH(kernels)
- Watson Visual Recognitionがすごすぎて俺の中で話題になっている件
- 高次元データの次元削減および2次元プロット手法
- Coursera Machine Learning (2): 重回帰分析、スケーリング、正規方程式
- PRML第3章 エビデンス近似 Python実装
- Windows10にChainer+CUDA 8.0をインストール
- Kaggleまとめ:BOSCH(winner)
- Watson Visual Recognitionを使った簡単顔認識アプリを作ってみよう
- Numpyのみを用いた、畳み込みニューラルネットワークの実装
- Tensorflowを使ってROS上でMNISTをやるノードを立てる
- 未踏の応募資料を公開します 【統計的かな漢字変換】
- MeCabとNEologdのインストール方法(CentOS6/CentOS7)
- PRMLのアルゴリズムをPython(ほぼNumpyだけ)で実装
- pythonでHMMのパラメータ推定実装
- 非機械的データ分析入門
- Tensorflow_in_ROSのコードを解説する
- Coursera Machine Learning (3): ロジスティック回帰、正則化
- 【初心者向け】Re:ゼロから始める遺伝的アルゴリズム【人工知能】
- PRML第4章 ベイズロジスティック回帰 Python実装
- Googleスプレッドシートの機械学習アドオンを日本語で試す
- defragTreesがよさそう
- 深層強化学習(DQN)でオセロもどきAIを作ってみた
- TensorFlow 0.12で追加されたEmbedding Visualizationを試す
- ニューラルかな漢字変換
- Jubatus をインストールして使ってみる【2017年版】
- [Python] Deep Learning: ディープラーニング (DBN, SDA) をライブラリを使わずに実装してみた
- 機械学習で美少女化 ~ あるいはNEW GAME! の世界 ~
- 取り急ぎpix2pixで遊んでみた(追記あり)
- 【論文シリーズ】DNCー動的な記憶装置を搭載した人工知能
- 全自動機械学習で実現する、現場のためのワンクリックデータ予測
- 誰でも分かるTrueSkill
- 機械学習向け並列分散処理フレームワーク Petuum について調べてみた
- Julia のススメ 〜 Deep Learning のための Julia 〜
- Coursera Machine Learning: 概要とWeek1-Week5までを振り返って
- Noise Contrastive Estimationについて
- Ruby でニューラルネットワーク
- メンターとパンサーを人工知能に区別させてみた
- Schooの動画レコメンドについて
- AdaBoost の弱学習器を色々試してみた
- PRML第5章 混合密度ネットワーク Python実装
- NLP/機械学習/データ分析系のDockerイメージ8選 + 1
- pix2pixでポップアートから写真を復元してみた (追記あり)
- “逐次的np.append”と”list.append+最後にnp.array作成”の速度比較
- Coursera Machine Learning (4): ニューラルネットワーク入門
- 幼女画像判定システムLolinco フロント編
- GCP(Google Cloud Platform)を活用した機械学習バッチ運用環境(2016)
- TensorFlowのinitialize_all_variablesがDeprecatedになった件
- これを理解できれば自然言語処理もできちゃう? MNISTでRNN(LSTM)を触りながら解説
- TensorFlow の名前空間を理解して共有変数を使いこなす
- Girl Friend Factory – 機械学習で彼女を創る –
- 機械学習でなんとなく材料研究者の気分を味わおう
- (Chainer) DNC(Differentiable Neural Computers)で文字列の学習&生成
- 絵で理解するWord2vecの仕組み
- PCAとSVDの関連について
- PRML第6章 ガウス過程による回帰 Python実装
- 人工知能やディープラーニングの理解に欠かせないパーセプトロンとは何か?
- 「ゼロから作るDeep Learning」の環境をDockerで作る
- JavaScript でニューラルネットワーク
- 2016年のディープラーニング論文100選
- 『Rによるデータサイエンス』をcaretで再現する
- Coursera Machine Learning (5): ニューラルネットワークとバックプロパゲーション
- ついに来た! Azure GPU インスタンス上に30分で構築する TensorFlow on GPU 実行環境構築手順
- LSTMを超える期待の新星、QRNN
- 非線形SVMとscikit-learnによる実装
- NIPS 2016参加報告
- PythonでAIシミュレーションプラットフォームOpen AI Gym を利用して遊ぶ (DQN編)
- TensorFlowをGCPで実行してみる
- Tensorflowで個人サービスにアップロードされた不適切なイラスト画像を検出する
- Chainerでモノクロ画像のカラー化を学習してみる
- Watson Knowledge StudioのTutorialをやってみた (前編)
- TensorFlowで競艇予想
- 環境構築から深層学習チュートリアル
- 2標本問題の新展開~古典的手法からカーネル法まで~
- 医薬品設計とニューラルネットワーク
- Javaで機械学習(DeepLeaning4j) 文書を学習して特定の単語と関連性の高い単語を抽出してみる
- 機械学習を1ヵ月で実践レベルにする #1 (とっかかり編)
- AWS Lambdaによるサーバーレスな機械学習APIの作り方
- 機械学習モデルの実装における、テストについて
- 空気を読むUIを作る
- 30分でわかる機械学習用語「クラスタリング(Clustering)」
- 機械学習を1ヵ月で実践レベルにする #2 (オンライン講座)
- PythonからGPU使用率などの情報を取得する(nvidia-smiコマンド)
- DeepLearning研究 2016年のまとめ
- 機械学習を1ヵ月で実践レベルにする #3 (Octave 編)
- scikit-optimizeの紹介
- 機械学習で競馬予想(その4)
- foobarNet: ディープラーニング関連の○○Netまとめ
- TensorFlowで畳み込みLSTMを用いた動画のフレーム予測
- まだ機械学習の論文を追うのに消耗してるの?それBotで解決したよ
- 確率とモナドと確率論的プログラミング
- 森を彷徨う
- 対話システムに使える(かもしれない)音声情報処理入門
- Pythonにまつわる3タイプ別オススメ書籍
- 【初級編; 2017年版】脳波で機械を操る!ブレインコンピュータインタフェース(BCI/BMI)って何?
- ペンパイナッポーとアッポーペンを識別する(ChainerでYOLO ver2)
- 機械学習を1ヵ月で実践レベルにする #4 (線形回帰編)
- 【転職会議】クチコミをword2vecで自然言語処理して会社を分類してみる
- 深層学習による声質変換
- RNNで人間行動認識
- Word2Vecを用いた類義語の抽出が上手く行ったので、分析をまとめてみた
- ボット開発者のための機械学習入門
- 「量子コンピュータが人工知能を加速する」を読んで、数式を使わずにPythonでその概要を説明してみた
- Metalでカメラからの動画入力をリアルタイム処理する
- 機械学習におけるクラス分類問題の各関数の意味解説
- 【翻訳】scikit-learn 0.18 User Guide 4.3. データ前処理
- CCVを使ってみよう
- 【翻訳】scikit-learn 0.18 User Guide 3.1. クロスバリデーション:推定器の成果を評価する
- Jubatusのバースト検知機能(jubaburst)を使ってみた
- TensorFlow for iOS のモデルについて
- WindowsでGPU使ってTensorFlowを動かすメモ(TensorBoardも動かす)
- 【翻訳】scikit-learn 0.18 User Guide 3.3. モデル評価:予測の質を定量化する
- iOSのMPSCNNによる手書き数字認識のサンプルを読む – 前編
- インフラエンジニアが見た機械学習のトップカンファレンス NIPS 2016
- RNNにおけるDropoutの適用について
- 手書きで数式を書きつつストレス無くノートをデジタル化する方法
- 【PyStan】Graphical LassoをStanでやってみる。
- javascriptでchainerモデルを利用するためのKeras.js
- ニューラルネットワークは電気ねずみの夢を見るか?
- 量子アニーリングで組合せ最適化
- Retty流『2200万ユーザを支える機械学習基盤』の作り方
- 新年をシリコンバレーで迎えるための7日間ハンズオン
- TensorFlowは「テンサーフロー」か「テンソルフロー」か?TensorFlow自身に聞いてみる。
- チャットボットをAIでもっと素敵にする!自然言語処理の仕組み
- DeepLearningはアニメを変えるのか?
- PyCon 2016で発表したChat Botをコードベースから解説(Chainerを利用した雑談応答編)
- 30分でわかる機械学習用語「次元削減(Dimensionality Reduction)」
- 機械学習を1ヵ月で実践レベルにする #9 (オーバーフィッティング)
- iOSのMetalで畳み込みニューラルネットワーク – MPSCNNを用いた手書き数字認識の実装
- Keras+DQNでリバーシのAI書く
- 3層ニューラルネットワークを実装する
- 外部メモリー付きのニューラルネット”Differentiable Neural Computing (DNC)”について解説するよ
- 機械学習の学習用に画像情報抽出とラベル付けが自動でできる前処理アプリをRailsで作ってみた
- Raspberry Pi 深層学習ライブラリで物体認識(Keras with TensorFlow・Open CV)
- scikit-learnを用いた機械学習入門 -データの取得からパラメータ最適化まで
- 音楽の構成(Aメロ、サビ等)を自動で分割する。
- ニューラルネットワークの出力層設計に関する指針
- ロバストにいこう
- ゼロから作るDeep Learning Pythonで学ぶディープラーニングの理論と実装 第3章
- TensorFlow Saverで保存する世代数を指定する方法 (元旦の悲劇)
- 江ノ島を描く ~Neural Style~ [TensorFlowでDeep Learning 14]
- ”ゼロから作る Deep Learning”のための環境構築をdockerとVagrantで実現
- 私的Chainer入門
- WebでChainerを「触って」学習出来る Chainer Playground をやってみた
- 機械学習に必要な最急降下法の実装に必要な知識まとめ
- ディープラーニング(seq2seq)でtwitter chatbotを作ってみた
- 文章を○○風に変換する機械学習をやってみた
- Coursera Machine Learning (6): 機械学習のモデル評価(交差検定、Bias & Variance、適合率 & 再現率)
- 機械学習の内輪向け勉強会: 概念の理解
- PRML第10章 変分混合ガウス分布 Python実装
- 可能性の枝切りができない開発は必ず失敗する。
- Raspberry Pi 深層学習で「赤りんご」と「青りんご」を見分ける(Keras・Open CV)
- Coursera Machine Learning (7): サポートベクターマシーン (SVM)、カーネル (Kernel)
- Coursera Machine Learning (8): 教師なし学習 (K-Means)、主成分分析 (PCA)
- 機械学習で精度が出ない時にやることまとめ
- fastTextを使って単語じゃないものの分散表現を獲得する
- 機械学習をゼロから1ヵ月間勉強し続けた結果
- LightGBM ハンズオン – もう一つのGradient Boostingライブラリ
- 多分もっともわかりやすいTensorFlow 入門 (Introduction)
- 3日で資産が3倍に!! Azure Machine Learning(ML) でFx予測と自動売買連携。-その1 概要・準備編
- 【Tensorflow入門】適当にTensorflowを理解して、モデルを作ってみる
- カルマンフィルタってなに?
- ゼロから作るDeep Learningのメモまとめ
- Stanfordの授業CS231nでニューラルネット、畳み込みニューラルネットを学ぶ
- Raspberry Pi 深層学習でリアルタイム顔認識(Keras・Open CV)
- NIPS 2016 Adversarial Training Workshop 体験記
- 機械学習で電力需要を予測してみる パート2
- TensorFlowの学習モデルによるモバイル端末でのリアルタイム画像認識
- Coursera Machine Learning (10): 大規模機械学習
- いますぐ使える単語埋め込みベクトルのリスト
- OpenAI UniverseでするAtari Pongの強化学習
- 【初心者向け】MacでDockerを使ってTensorFlowを試す(Jupyter Notebook)
- 機械学習ことはじめ(オススメ教材・情報)
- Inside of Deep Learning (ディープラーニングの基本要素)
- Inside of Deep Learning あるいは深層学習は何を変えるのか
- ゆるふわ強化学習1
- PRML第12章 ベイズ的主成分分析 Python実装
- はじめての人向け機械学習【2017年度版】
- ニューラルネットワークを使ったWindowsアプリを作成
- Jupyter on Dockerでパスワードの設定方法が分からないあなたへ
- Coursera Machine Learning (11): 写真の光学文字認識 (Photo OCR)
- fastTextの学習済みモデルを公開しました
- ChainerやTensorFlowでGPUを使うと毎回結果が変わる理由と対策 (まとめ)
- ChainerでGPUを使うと毎回結果が変わる理由と対策
- TensorFlowでGPUを使うと毎回結果が変わる理由と対策
- 【word2vec】会社のクチコミを自然言語処理した結果を可視化してみる
- 再訪scikit-learn
- Pythonでベイズ最適化を行うパッケージ GPyOpt
- 機械学習のルールとベストプラクティス(Rules of Machine Learning: Best Practices for ML Engineering の意訳)
- 人工知能関連ニュースの、実際のところシリーズ
- 遺伝的アルゴリズムxニューラルネットワーク(NeuroEvolution)でOpen AI Gymの山登りをさせた話
- 月刊Interface 2017年03月号がTensorFlow大特集になっている話
- 数学の苦手なバイオの学生がCourseraの機械学習コースを修了して気づいたこと
- Tensorflowでブロック崩し
- Chainer2.0が近日リリース またそれとは別の大規模分散処理に対応したChainerもリリースされるらしい
- 機械学習ざっくりまとめ~パーセプトロンからディープラーニングまで~
- PRML第13章 隠れマルコフモデルの最尤推定 Python実装
- 趣味用に安く深層学習PCを作った
- iOSのMetal Performance Shadersでニューラルネットを実行する際のモデルの渡し方
- GPUなしではじめるディープラーニング
- TensorFlowでVGG19を使ってMNISTのエラー画像一覧を作ってみた
- O(log N)の底は何なのか
- 強化学習
- keras(tensorflow)で花の画像から名前を特定
- 自然言語処理における畳み込みニューラルネットワークを用いたモデル
- 普通のpython実行ファイル(argparseを含むファイル)をJupyter notebookで実行するときのメモ書き
- LINQ を使って 8 行で k-means 法を実装してみた
- TensorFlow (ディープラーニング)で為替(FX)の予測をしてみる
- GraphLassoを用いた株式市場の構造学習
- Kerasでfizzbuzz問題を解いてみる
- ゆるふわ強化学習2
- テキスト分類器fastTextを用いた文章の感情極性判定
- Keras with GridSearchCVでパラメータ最適化自動化
- 文系卒社会人が統計入門でのモヤモヤを克服した話
- 例の機械学習コースが良いらしいと知りながらも2年間スルーし続けたがやはり良かったという話
- 機械学習の regularization の訳は正則化 (正規化ではない)
- CPUで気軽に強化学習してみた話(DeepMind A3C)
- 機械学習とディープラーニングの入門者向けコンテンツまとめ
- なぜ機械学習にPythonが選ばれるのか
- 【テキスト分類】Convolutional Neural Networks for Sentence ClassificationをChainerで実装してみた
- ディープじゃない機械学習で為替(FX)の予測をしてみる
- Apache Sparkによる大規模データの分散処理による機械学習(回帰分析) by Amazon EMR
- 機械学習入門時に知っておきたい情報まとめ
- スタートアップ必須のコホート分析を、サバイバル分析の手法で、簡単かつ正確に
- Courseraの機械学習コースを始めるまえに用意しておくこと、覚悟すべきこと
- iOSのMPSCNNに渡すモデルパラメータのフォーマット / TensorFlowからの書き出し
- トピックモデルを操作 ~Interactive Topic Model~
- Cloud Dataflow(Python)で機械学習パイプラインを動かす
- TensorFlowの増大するAPIについて少し考えてみた
- [Python]強化学習(DQN)を実装しながらKerasに慣れる
- ScalaからTensorFlowのJava APIを呼びだすぞい
- Windowsに、オフラインでディープラーニング環境をインストールする(Tensorflow, Keras) ・・・「オフライン環境でのpipインストール方法」と言ってもいいかも・・・
- TensorFlow の “AttributeError: ‘module’ object has no attribute ‘xxxx'” エラーでつまづいてしまう人のための移行ガイド
- Webアプリケーションエンジニアがディープラーニングに挑戦する際にやったこと(Coursera Week1)
- 続々・node.js で社会性フィルター
- PyTorchリンク集
- TensorFlow iOS カメラサンプルで自作した画像分類器を動かす
- ChainerRLでライントレーサーする
- Cloud Dataflow(Python)でXGBoostを動かす
- 機械学習 トレーニングデータの分割と学習・予測・検証
- 文章から特徴量(素性)を抽出する.
- Qwiklabs の NVIDIA ラボで無料ハンズオンを試す
- 今更ながらchainerでSeq2Seq(1)
- kaggleの脳波検出コンペ上位モデルの解説を翻訳
- scikit-learnでモデルのハイパーパラメータチューニングをしよう!
- 今更ながらchainerでSeq2Seq(2)〜Attention Model編〜
- 自然言語処理における、Attentionの耐えられない短さ
- 4時間で「ゼロから作るDeep Learning」を読んで自分で動かしてみた
- 数学の知識がなくてもできる機械学習
- ゲーマーの為のTensorFlow入門
- [Python]KerasをTensorFlowから,TensorFlowをc++から叩いて実行速度を上げる
- 爆勝ちFXシストレ論文「Learning to Trade via Direct Reinforcement」を再現させたい
- Google Cloud DataflowでTensorFlowのGrid Searchをしてみた
- Ubuntu環境上でPyCharmを使った機械学習の環境を構築する(TensorFlowも導入するよ!)
- 会計データを学習して、仕訳の入力時に摘要の内容から勘定科目を予測してみる
- なぜ自然言語処理にとって単語の分散表現は重要なのか?
- scikit-learn でランダムフォレストによる多ラベル分類
- Google Video Intelligence APIのデモを触ってみた
- Getting Started With TensorFlow を翻訳
- 機械学習した結果から予測をHTTPで返す仕組みの一例
- 今更ながらchainerでSeq2Seq(3)〜CopyNet編〜
- Affineレイヤの逆伝播を地道に成分計算する
- 高校数学で理解・実装するニューラルネットワーク
- [改良版]KerasでVAT(Virtual Adversarial Training)を使ってMNISTをやってみる
- pytorch超入門
- GANで文章の生成(Controllable Text Generation – Arxiv.orgより)
- 【決定版】MacでPythonを使って『機械学習』を学ぶための環境構築
- 機械学習ナイーブベイズ分類器のアルゴリズムを理解したのでメモ。そしてPythonで書いてみた。
- Coursera Machine Learning を修了したので、感想を書いてみる
- 実サービスでの機械学習の活用に関するサーベイ
- ニコ動コメントコーパスでkaomoji2vecして顔文字をベクトル表現で扱う
- 【決定版】WindowsでPythonを使って『機械学習』を学ぶための環境構築
- 機械学習の環境を構築するのにAnacondaをインストールする必要はない。Minicondaを使おう
- TensorFlowによるDCGANでロゴ画像を生成してみた
- 教師無しimage to image ”Discover Cross-Domain Relations with Generative Adversarial Networks.” のざっくりした紹介
- TensorFlow (ディープラーニング)で為替(FX)の予測をしてみる CNN編
- MS の Deep Learning Framework CNTK で画風変換~もしも小学生の自分にゴッホを描かせたら?
- ディープラーニングのフレームワークの自作
- ある美女が,どの大学にいそうかを CNN で判別する
- FPGAでDeep Learningしてみる
- テンプレートを使って爆速で機械学習プロジェクトを作成する
- ブラウザで実行できるplaygroundまとめ
- 機械学習に用いるデータセット作成のための画像収集Pythonスクリプト
- Twitter感情分析で株価予測の論文を検証したら約70%の精度で上下予測できた
- ポエム判別器
- 生成モデルで語られる Kullback-Leibler を理解する
- データサイエンス、データ分析、機械学習に必要な数学
- Google Cloud ML EngineをJupyterから簡単に使えるMagic
- 【テキスト分類】Convolutional Neural NetworksにAttention機構を使ってみた。
- 転移学習:機械学習の次のフロンティアへの招待
- 誤差逆伝播法における行列演算まとめ
- ギブスサンプリング実装とJITコンパイラによる高速化
- Chainer で手書き数字認識(MNIST)
- ちょっと距離についてまとめてみた。
- デレマスで機械学習(データ取得編)
- 最小二乗法のアルゴリズムを理解したのでメモ。そしてPythonで書いてみた。
- トランプ氏のツイートを機械学習し、為替の予測をしてみた。〜GCP ML系使い倒し〜
- 【文分類】Convolutional Neural Networksのpooling方法を色々試してみた
- 【DeepAA on Web】ディープラーニングでアスキーアートを”Web上で”作る #DeepAA
- 「わかりやすさ」に注目した、機械学習による技術ブログの検索
- ディープラーニングでイラスト画像分類
- SE, PG系の方がデータ分析、機械学習をやる必要が出た時にまず手にとるべき一冊
- 顔画像から年齢・性別を推定するためのデータセットIMDB-WIKI
- DeepMindのSonnetを触ったので、TensorFlowやKerasと比較しながら解説してみた
- javascriptでお手軽に顔認識できちゃうライブラリ
- TensorFlow の複数プロセスで queue を共有
- deep learning にも使える scikit-learn の概要と便利な機能
- xgboost: テーブルデータに有効な機械学習モデル
- Kerasでちょっと難しいModelやTrainingを実装するときのTips
- KerasでBEGAN(Boundary Equilibrium Generative Adversarial Networks)を実装する
- ノンプログラミングで機械学習サービスが作りたい! テキスト分類編
- word2vecで吉川英治本の感情分析をしてみた
- 誤差逆伝播法等に用いる 計算グラフ の基本パーツ
- FPGAでDeep Learningしてみる – きゅうりを選果する
- 自然言語処理における前処理の種類とその威力
- DEEP PROBABILISTIC PROGRAMMING —”深層学習+ベイズ”のライブラリ— Edwardの紹介
- 週刊少年ジャンプの短命作品を,機械学習で予測する (前編:データ分析)
- 画像の認識 〜 Yolo
- Batch Normalization の理解
- 【決定版】WindowsでPythonを使って『画像処理』を学ぶための環境構築
- Splunkと機械学習(基礎編)
- 人工知能時代の音楽制作への招待 – Google Magenta 解説&体験ハンズオン (自習編) –
- ノンプログラミングで機械学習サービスが作りたい! WebAPI編
- クラスタリング手法のクラスタリング
- BEGAN( + DCGAN )をpytorchで実装して日本人顔の生成
- ノンプログラミングで機械学習サービスが作りたい! フロントエンド編
- GAN(Generative Adversarial Networks)を学習させる際の14のテクニック
- ベイズ最適化のKeras DNNモデルへの適用
- ResNetで料理の材料をあてていく:food2stuff
- 皆んなでやろう。 汎用人工知能 “General AI Challenge” のススメ
- 新規アプリケーションへの深層学習適用のベストプラクティス
- Microsoft の Deep Learning フレームワーク「CNTK」が Python 対応になって格段に使いやすくなってた話
- データの傾向が変わっても性能が落ちにくいモデルの作り方
- CNTKによる、CT画像からガン患者の推定
- 物体認識用データセット作成支援ツール(Faster R-CNNとかSSDとか)
- ある美女が、どこ出身かをディープラーニングで判別する
- 画像変換手法CycleGANでパンダ生成モデルを作った話
- 複数の機械学習ライブラリを一発で適応しちゃう方法
- C#で実装するトップダウン型自動微分
- データの前処理① Imputerとdropnaで欠損値の処理
- 自然言語処理による文書分類の基礎の基礎、トピックモデルを学ぶ
- Watson Retrieve and Rankの公式ツールを利用して質問応答システムを作る (1)
- Watson Retrieve and Rankの公式ツールを利用して質問応答システムを作る (2)
- Google Cloud Vision APIのOCR(画像認識)を検証する
- 行列の積演算で openBLAS cuBLAS を体感する
- 各種正則化から転移学習まで。tensorflowソースコードで見るDL性能改善手法 まとめ(ver 2)
- データ前処理② データを Categorical から Numerical に。
- 素人の言語処理100本ノック:まとめ
- gensim入門
- Modeling Relational Data with Graph Convolutional Networksのまとめ
- Yolo が遅延するのでプロファイラーを使ってみた
- Watson Retrieve and Rankの公式ツールを利用して質問応答システムを作る (3)
- データサイエンス、データ分析、機械学習に必要な数学2
- ディープラーニングでザッカーバーグの顔を識別するAIを作る①(学習データ準備編)
- ロジスティック回帰の数式を分かりやすく解説、、、できたらいいな
- 機械学習の情報を手法を中心にざっくり整理
- ドコモとリクルートの対話
- ディープラーニングでザッカーバーグの顔を識別するAIを作る②(AIモデル構築編)
- Python vs Ruby 『ゼロから作るDeep Learning』 1章 sin関数とcos関数のグラフ
- ディープラーニングでザッカーバーグの顔を識別するAIを作る③(データ学習編)
- ディープラーニングでザッカーバーグの顔を識別するAIを作る④(WEB構築編)
- 回帰と分類の違い
- 音楽と機械学習 前処理編 MFCC ~ メル周波数ケプストラム係数
- 機械学習⑤ アダブースト (AdaBoost) まとめ
- 人工知能は遊戯王カードの価格を予測できるか?
- 次元の呪い (Curse of dimensionality) とは何なのか
- ディープじゃないディープラーニングをNumPyのみで超簡単実装してみた
- 日本語極性判定を作って公開した~SentencePiece版~
- 2017年夏インターンまとめ【データサイエンス】
- 画像を送ると何が写っているのかを返す LINE Bot を GCP で作った話
- 人と対話するロボットを開発するための、研究ガイド
- 人工知能、機械学習、ディープラーニングを昔の自分でもすぐに理解できるように整理してみた
- 機械学習はライブラリを使えれば数学は必要ないのだろうか。生の声を聞いてみた。
- 割と簡単に顔画像を集める方法
- pythonでなんとなく材料研究者の気分を味わおう【pymatgen入門】
- DCGAN-tensorflowで自動画像生成をお手軽に試す
- 文・単語単位の評判分析データセットのまとめ
- 整数値のベクトルをone hot表現に変換
- データサイエンティストを目指すなら、まず最適解をデザインしよう
- 顧客セグメンテーションをクラスタリングのアルゴリズムを使って5分でやってみた
- TensorFlowを中心とした機械学習環境をUbuntuで構築
- 顧客同士の類似性をMDS(多次元尺度構成法)を使って5分で可視化する
- nvidiaのgpuメモリが解放されない場合の解決方法
- ゲームアプリの「ドット絵」をディープラーニングで自動生成する
- Google翻訳における多言語間翻訳の仕組みを転用して、応答時のテンションが変わるチャットボットを作ってみた
- 機械学習チュートリアルまとめ
- VAEでキャラクターの設定を作る。
- 多変量正規分布の場合のKullback Leibler Divergenceの導出
- Microsoft のCustom Vision を使って遊んでみると想像以上に凄そうなサービスだった
- 行列微分のコツ
- R, Python, SAS, SPSSをヨーロッパのデータサイエンティストの視点で比べてみた
- 初めてのTensorFlow(改訂版)- 線形回帰とロジスティック回帰
- 安倍政権による北朝鮮ミサイル打ち上げ関与の陰謀論をデータから検証してみた
- 単語分散表現のためのダウンローダを作りました
- 【翻訳】scikit-learn 0.18 User Guide 1.11. アンサンブルメソッド
- 3×3 畳み込みフィルタ 結果画像
- HTMLファイルで動作するWord2Vecもどきを作った
- TensorFlowを使ってDir en greyの顔分類器を作ってみた – ①紹介編
- GANで犬を猫にできるか~cycleGAN編(1)~
- Excelで作る人工知能
- なぜニューラルネットはSVMに勝てないのか
- 機械学習について
- TensorFlowを使ってぐるなびの株価の終値の上下を予測してみた(途中経過)
- visual studioでtensorflow
- 【iOS 11】開発者ドキュメントから見る iOS 11 の新機能 #WWDC17
- 口コミのdoc2vecを用いたリコメンデーションシステムの構築
- C#でTensorFlowのCNNを動かす。
- ローカル環境をよごさずに Jupyter で python コードが動く環境を手軽につくる方法
- サービスのエンゲージメントをDAU/MAU比率で計測、可視化、予測まで5分でやってみた
- 週刊少年ジャンプの短命作品を,機械学習で予測する (後編:学習と評価)
- iOS11のcoreMLで物体認識(VGG16)を実装してみる(3分クッキング)
- コロナ社「文脈解析」本のレビュー
- Python vs Ruby 『ゼロから作るDeep Learning』 まとめ
- マーケティング・キャンペーンのROIをGoogleが開発したCausal Impactをつかって5分で計測してみる
- 【iOS 11】【Core ML】pip install coremltools でエラーになった場合の対処法
- ITエンジニアのための機械学習理論入門読了者が Kaggle やってみた
- ディープじゃないディープラーニングをperlのPDLのみで超簡単実装してみた
- Watson Assistant(旧 Conversation)で行こう ②ホテル予約 チャットボットを作る
- Unity上でTensorFlowのCNNを動かす。
- 機械学習を学ぶ上で個人的に最強と思う教科書
- シンプルなNNで 学習失敗時の挙動と Batch Normalization の効果を見る
- Udemyで学べる機械学習を全部見てみたんで、お勧め報告
- KerasのstatefulなRNNを使って、wavファイルを元にして自動作曲できないか試してみた
- シンプルなNNで SeLU と eLU と ReLU を見比べてみる
- Kerasでのim2txtの実装系
- macOS Sierraでtensorflowの新しいObject Detection APIを試してみた
- Core ML+Visionを用いた物体認識の最小実装
- Kerasを用いたCIFAR-10チュートリアル
- Watson Assistant(旧 Conversation)で行こう ③コンテキスト(Context)を活用した、ホテル予約チャットボット
- 機械学習で共有スペース利用状況の解析
- 畳み込みニューラルネットの規模と正答率の実験
- 機械学習の超初心者が、みんなが良いと言う記事を読んでまとめてみた
- 最新ディープラーニングアルゴリズムを使って物体検出のチュートリアルを動かしてみた
- 【入門者向け解説】TensorFlowチュートリアルMNIST(初心者向け)
- CVAEによるキャラクターの台詞の生成と、口調変換
- KerasのモデルとTensorFlowの最適化でWasserstein GANを学習する
- 途中分岐するニューラルネットワークの書き方と精度
- 【入門者向け解説】TensorFlow基本構文とコンセプト
- 「自然言語処理シリーズ」まとめ(コロナ社)
- Chainerのレポーティング機能についてまとめてみる
- データサイエンティストを目指して勉強するなら、Kaggleからはじめよう
- SONY謹製DeepLearningライブラリNNablaでCifar10実装してみたヅラ【ニッポン万歳】
- Keras + iOS11 CoreML + Vision Framework による、ももクロ顔識別アプリの開発
- MNISTでハイパーパラメータをいじってloss/accuracyグラフを見てみる
- 楽曲生成ニューラルネットワークを作った話
- DeepLearningで楽曲特徴量を抽出し、タグを予測する
- TensorFlowのiOSサンプルの実行手順(2017年7月現在)
- Lua版 ゼロから作るDeep Learning まとめ
- 『データサイエンティストとマシンラーニングエンジニアはKaggleやれ』というのは何故なのか
- Webエンジニアがやりたいことドリブンで機械学習に入門してみた
- 機械学習、深層学習のプラットフォームの整理
- R で 巨大な Bayesian networks を扱う
- Webカメラで撮った画像中の数字を判別する
- KerasモデルをCloud ML Engineで学習してOnline Predictionしてみた
- 【随時更新】マシンラーニングエンジニアが機械学習、統計学のおすすめ本を紹介する
- 高速な Convolution 処理を目指してみた。 Kn2Image方式
- Convolution処理の手法 Im2Col方式の図解
- 自前のDeep Learning用のデータセットを拡張して水増しする
- ハミルトニアンモンテカルロ法
- XGBoost/LightGBM のGPUサポート状況調査とベンチマーク
- 【TensorBoard入門】TensorFlow処理を見える化して理解を深める
- 不均衡データに対するClassification
- 【ニューラルネットワーク】Dropout(ドロップアウト)についてまとめる
- 【入門者向け解説】TensorFlowチュートリアルDeep MNIST
- DCGANで画像の自動生成
- 【入門者向け解説】畳み込み処理入門(TensorFlowで説明)
- KerasでLSTM AutoEncoderを実装する
- Chainerでアニメキャラクターの顔画像を分類する
- Kerasはfunctional APIもきちんと理解しよう
- Class activation mappingを用いたCNNの可視化
- Kerasで最短で強化学習(reinforcement learning)する with OpenAI Gym
- 機械学習を英語ビデオで学ぶサイトまとめ
- OpenAIの標準強化学習アルゴリズムPPOを試す
- iOSの機械学習フレームワークの比較 – Core ML / Metal Performance Shaders (MPSCNN) / BNNS
- AWS EC2のスポットインスタンスでGPU版tensorflowを動かす
- 仮想通貨取引所のPoloniexからAPI経由でデータ取得し、ディープラーニング(Chainer)で翌日の価格予測をしよう
- KerasでLSGAN書く
- Variational Autoencoder徹底解説
- kerasのmnistのサンプルを読んでみる
- 「Python 機械学習プログラミング」まとめノート(Jupyter)
- 機械学習超入門
- scikit-learnとflaskで簡単な機械学習✕Webアプリ
- 類似顔検索を半日で実装する
- コロナ社「構文解析」本のレビュー
- データサイエンティスト・データエンジニアのための Python ライブラリ一覧
- 機械学習の論文を読んでみたいけど難しそう、という時に見るサイト
- メガネな人を見つめてくれるWebカメラ
- 「ベクトルで微分・行列で微分」公式まとめ
- k近傍法とk平均法の違いと詳細.
- 音声認識をカスタマイズできるMicrosoftのCustom Speech Serviceの使い方
- Microsoftの音声認識技術を本気で検証してみた
- Tensorflowにおける各種演算まとめ
- Keras チュートリアル
- 機械学習の情報収集に役立つ13のメルマガ
- 一から始める機械学習(機械学習概要)
- ごちうさしか見たことない人がけもふれを見るとどんなコメントをするのか,コメントだけで機械はチノちゃんを認識できるのか
- 論文メモ:Virtual Adversarial Training
- KerasでCNNを簡単に構築
- 論文メモ:Understanding Black-box Predictions via Influence Functions
- Windows版Anaconda上でTensorFlow +JupyterNotebook +Matplotlib の環境構築(2017年8月版)
- 自力で機械学習の訓練画像データを収集する(Google Custom Search API ピカチュウ編)
- 台詞発話時の表情を自動判定する
- Kaggle – Instacart上位陣解法まとめ
- 機械学習における、定型的な作業を自動化する
- 【プログラマーのための統計学】 度数分布とヒストグラム
- 【プログラマーのための統計学】目次 – データサイエンス
- 初めての深層学習ロードマップ [随時更新&文献追加 予定]
- はじめてのdeeplearn.js
- crystal でレコメンドエンジンを作った話
- 【プログラマーのための統計学】平均値・中央値・最頻値
- 【プログラマーのための統計学】箱ひげ図
- ゼロから作るDeepLearning by Rust(第三章まで)
- 機械学習を半自動化するauto-sklearnの環境構築(Mac&Docker)
- TensorFlowの基本的な関数をXORゲートを学習するニューラルネットワーク作成してまとめてみる
- 【プログラマーのための統計学】分散と標準偏差と変動係数
- 囲碁プロ棋士の棋譜を眺める
- Kerasで実践的な為替予測をしてみたかった(RNN編)
- 自力で機械学習の訓練画像データを収集する(Tumblr API 吉岡里帆編)
- コスト関数を解読する
- データシティ鯖江のオープンデータを使って水位計の値を機械学習で予測してみる パート2
- 機械学習によるギター画像の分類 その1
- (保存版:ど素人向け) 機械学習/データ分析 読むべき記事リスト by Team AI
- hyperoptって何してんの?
- 文系エンジニアがCourseraの機械学習コースを1ヶ月で修了したので振り返ってみました。
- (保存版:随時更新)データ分析ハッカソンやる時の便利なチュートリアル集 by Team AI
- 速報 : カナダで強化学習中心の深層学習ビデオコースが無料公開
- 正規分布間のKLダイバージェンス
- 機械学習によるギター画像の分類 その2 ~ 学習データへのノイズ付与による識別のロバスト性向上
- 典型的な DP (動的計画法) のパターンを整理 Part 1 ~ ナップサック DP 編 ~
- sklearn.feature_selection による特徴量選択
- 720万手をディープラーニングで学習したオセロAIをChainerで作ってみた

Androidに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

AWSに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Bitcoinに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

CentOSに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

dockerに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

GitHubに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Goに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Javaに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

JavaScriptに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Laravelに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Pythonに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Rubyに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Scalaに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Swiftに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Unityに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Vue.jsに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

Wordpressに関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。

機械学習に関する現役のエンジニアのノウハウ・トレンドのトピックなど技術的な情報を提供しています。コード・プログラムの丁寧な解説をはじめ、初心者にもわかりやすいように写真や動画を多く使用しています。