本プログラムの最大の特徴の一つは、全てのトピックについて、演習を中心に構成されている点です。実際に手を動かしながら理解を進めることで、効率よく学習することができます。 実際にモデルを学習させながら技術を習得する本格的な演習内容となっています。Deep Learningは、モデルが実際に学習する様子を観測し、パラメータを調整することでアプリケーションに応じたパフォーマンス最大化を行うことが非常に重要な技術ですが、この一連の流れを全ての演習で経験しながら重要な要素を身につけることが可能です。
darknetによる人工知能の続きです。 darknetは、既に学習済みのYOLOというファイルも提供されています。 下準備がされたものまで込みで、提供されているってことですね。 今回はそのファイルの導入と、画像認識機能を試していきます! darknet自体の下準備はコチラ。 www.lisz-works.com ニューラルネットのダウンロード ファイルをセット yoloの実行 結果 ほかのサンプル あとがき ニューラルネットのダウンロード まずここにアクセス。「yolo.weights」というファイルをダウンロードしましょう。 http://pjreddie.com/media/files/yolo.weights 他サイト様の例を見ていると $ wget http://pjreddie.com/media/files/yolo.weights という方法を取っていますが、wgetはLi
こんにちは。菅野です。 最近、AIとか機械学習とかが話題ですね。 AIに仕事を奪われる職業がどうとかの記事もよく見かけます。 このブログ記事もAIが書いてくれたら良いのにと思っている今日この頃です。 …でも思ってるだけでは仕事を奪ってくれないので、やっぱり何かしら自分で作るしか無さそう。 という訳で、今回はJavaでディープラーニングが出来るDeeplearning4jを使って機械学習を試します! プロジェクトD さて、何を作りましょう? 最終的には私の仕事を勝手にやってくれるAIを作りたいです。 でも、はじめは簡単なものから少しずつ作っていこうと思います。 よくディープラーニングでネタにされるのは手書き文字の識別ですが、正直面白くないので道路上を自動運転するAIを作ります! 嘘です。 いきなり作るのは無理があるので、画像の道路が左カーブなのか、右カーブなのか、あるいは直線なのかを分類し画
5/25に,IBMの坪井さんと,NTTの鈴木さんと書いた「深層学習による自然言語処理」というタイトルの本が発売されました. 特に昨年1年間は,土日や夜をかなり潰したので,ようやく発売されたなぁと感慨深いものがあります. 最終稿の直前で,図を差し替えたり,変な文が見つかったりしたので,まだ変な誤植があるかもしれませんし,読みにくいところもあると思います. 本の内容ですが,おおよそ2012年から2015年くらいの深層学習系の自然言語処理の流れをトレースしています. つまり,埋め込みベクトルの学習(word2vec),ニューラル言語モデル,符号化復号化モデル(encoder-decoder, sequence-to-sequence),注意機構(soft attention/hard attention)とその応用(attention encoder-decoder, memory networ
Amazon Web Services ブログ AWS Batch上で深層学習 同僚のKiuk ChungがAWS Batchを使って深層学習をするという素晴らしい記事を書いてくれました。 GPUインスタンスは当然のように深層学習とペアになりますが、それはそのニューラルネットワークのアルゴリズムがGPUインスタンスの超並列処理能力を活かすことができるからです。AWSではg2やp2といったGPUインスタンスを提供しており、お客様はスケーラブルなGPUワークロードを実行することができます。AWS Batchを使うことでそのスケーラビリティをもっと効率よく使うことができます。(訳注: 丁度GTC 2017のKeynoteにて次期NVIDIA GPUであるV100に関する情報も発表されましたのでご参考頂ければ幸いです: AWS and NVIDIA Expand Deep Learning Par
Amazon Web Services ブログ GTC 2017にてAWSとNVIDIAは深層学習のパートナーシップを拡大させました 今年のNVIDIAのGPU Technology Conferenceにて、AWSとNVIDIAはいくつかのイニシアチブにおいてパートナーとなりました。1つ目はとてもワクワクしている最新のVoltaベースのGPUインスタンスで、LSTMの学習が3倍高速になるように、AI開発者が接する世界を完全に別物にしてしまうと我々は考えています。2つ目は、AWSで動いているDeep Learning Institute (DLI)を通じて10万人以上の開発者をトレーニングする計画を発表しました。3つ目として、広い開発者コミュニティのために深層学習を大規模にスケール可能とするツールの共同開発です。 GTCでAWSは複数のセッションを行っており、Apach MXNetを使って
OverviewThis blog post is structured in the following way. First, I will explain what makes a GPU fast. I will discuss CPUs vs GPUs, Tensor Cores, memory bandwidth, and the memory hierarchy of GPUs and how these relate to deep learning performance. These explanations might help you get a more intuitive sense of what to look for in a GPU. I discuss the unique features of the new NVIDIA RTX 40 Amper
概要 様々なモデルでMNISTの半教師あり学習(10ラベル)を行った はじめに 今までに作ってきた半教師あり学習の手法を用いてMNISTのワンショット学習対決を行ないました。 用いるモデルは以下の4つです。 GAN (Generative Adversarial Network) 通常の多クラス分類器をDiscriminatorとして使う手法を用いる MNIST 100ラベルのSOTA(エラー0.93%) Improved Techniques for Training GANs 実装 VAT (Virtual Adversarial Training) データ$x$の予測分布$p(y \mid x)$と、ノイズ$r$を加えた$\bar{x} = x + r$の予測分布$p(y \mid \bar{x})$が滑らかになるように学習 最も予測分布を狂わすノイズ$r_{adv}$を誤差逆伝播で
こんにちは。ソリューションアーキテクトの布目です。本日はAWS Compute Blogに掲載されたSeamlessly Scale Predictions with AWS Lambda and MXNetをご紹介します。 Sunil Mallya, ソリューションアーキテクト AIソリューションを大規模に構築することは困難を伴います。このブログではAWS LambdaとMXNetを、スケーラブルな予測パイプラインの構築に活用する方法を見ていきます。 機械学習や深層学習を活用しようとする企業は、単なるモデルの学習よりもはるかに多くの投資をしています。そこには、次に示すステージを含む洗練されたパイプラインが存在します: データストレージ プリプロセッシング 特徴抽出 モデルの生成 モデルの分析 特徴エンジニアリング フィードバックの評価 パイプラインの各ステージでは次が要求されます: 変化
社内の機械学習勉強会で最近話題になった機械学習関連のエントリを取り上げているのですが、ここ一ヶ月ではGoogle Neural Machine Translation(GNMT)がとても話題になっていました。GNMTで使われているEncoder-Decoderやattentionのような仕組みを直近で使う予定は特にはないですが、機械学習を使うエンジニアとして知っておいて損はないし、技術的に何が変わったことにより何ができるようになって、何はまだできないのかを知ろう、というのが目的です。技術的な項目は興味ない人も多そうなので、最後に持っていきました。 Google Neural Machine Translation(GNMT)の最近の進化について できるようになったこと 定量的な評価 まだまだ難しいこと 技術的な詳細 Encoder-decoder Attention based encod
1. 自然言語処理のための Deep Learning 東京工業大学 奥村・高村研究室 D1 菊池悠太 @kiyukuta at 2013/09/11 Deep Learning for Natural Language Processing 13年9月28日土曜日 3. 2つのモチベーション - NLPでニューラルネットを - 言語の意味的な特徴を NN→多層×→pretraining→breakthrough !! 焦って早口過ぎてたら 教えて下さい A yet another brief introduction to neural networks http://www.slideshare.net/yutakikuchi927/a-yet-another-brief-introduction-to-neural- networks-26023639 13年9月28日土曜日
All images in this paper are generated by a neural network. They are NOT REAL. Full paper here: http://arxiv.org/abs/1511.06434 ###Other implementations of DCGAN Torch Chainer TensorFlow ##Summary of DCGAN We stabilize Generative Adversarial networks with some architectural constraints Replace any pooling layers with strided convolutions (discriminator) and fractional-strided convolutions (generat
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く