ここだけの話、「ディープラーニング」って何なの?
■ このスレッドは過去ログ倉庫に格納されています
「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――
2月18日付けで日本経済新聞電子版が公開した記事について、Twitterでは「ディープラーニング=最小二乗法」
という解釈は異なるのではという指摘が相次いだ。19日には「ディープラーニング」「最小二乗法」といった
ワードがTwitterでトレンド入りし、波紋が広がっていた。
日経の記事では、慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説。
「近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法
(誤差を最小にする近似計算の一手法)にすぎない」と言及し、「ディープラーニングは『最小二乗法』」と
題する図版が掲載された。
https://www.itmedia.co.jp/news/articles/1902/20/news141.html ディープラーニングで最適な結果出すには、あり得ないくらいの条件指定がいるから
なかなか思うように動いてくれない
そもそも思うようにって考えてしまうこと自体、ディープラーニングと相反する考えだし
使う側に相当センスがないと使い物にならないっぽい 書籍を買ったり学校へ行ったりと、学ぶことに一切金をかけずネットだけで学ぶ方法をチープラーニングという 睡眠学習と云うのが有ってだな…英語が丁寧語じゃ無い日本語のアレがこうだが逆なのが問題なんよ 知らないことにも首つっこんで
万能感を演出したいやついるよな オタクが関連情報を掘り下げるみたいな意味じゃないの? 複雑に見える関係性も最適化したら単純な式で記述可能なんだよな。 三冠+天皇賞、宝塚記念、JC、有馬記念勝った
今現在日本のリーディングサイヤー コインの表が3連続ででたから次も表ですって学習する機能 ドラゴンボールの精神と時の部屋だよ
普通の人が一時間勉強するところをスパコンの性能で100000万時間試行できる
答のない命題、例えばリンゴとみかんはどちらが美味しいか?
なんかは長時間学習しても殆ど無意味だけど
囲碁や将棋の一手なら数千時間考えれば最善手がみつかる 凄いっぽい計算っぽいものをしたっぽく見えたっぽいあとにそれっぽい答えを出したっぽい動きをするもの 中学時代のパソコンの授業でインターネットを使った時
みんなが自分の好きな漫画や野球のページを見てる時に
自分だけこれみよがしに2chにつないでAAとかを周りに見せてたこと
しかも「このページって何?」って聞かれた時に「ヤバイ奴らの集会所みたいなもん」とか答えたこと
さらに友達に2chへの行きかたを教えるためにヤフーで2chって検索させて
でてきたリンクをクリックして2chのトップページが表示された瞬間に
そいつの耳元で「Welcome to Deep Learning」ってささやいたこと 統計のためにデータの傾向をため込むことを学習といっているんだからそういう見方からは似たようなもんかな、とは思う。 一種のアルゴリズムだよ
コンピューターに何かを掘り下げろって具体的に命令するプログラムではない バナナを食べると医者にかからない
的な法則を見つけるヤツ 英語が話せるようになるってやつか
いつのまにか眼鏡のお爺さんから幼女に変わったな AIは人間に理解できない多次元曲線で現実の測定値を方程式化できる。人間のやる最小二乗法は直線二次曲線あたりがせいぜい。 >>51
考え方の違い。
全部のサンプルが出たところで正規分布や近似式を1作業出すのが数学の主な手法。
AIの実装はデータ入出力のときに都度に評価し、評価方法を変えながら次にデータが
来たときに正答に近いと思われる値を出せるようにしておくかというもの。そのために、
AIの基本的な手法では、パーセプトロンという最小単位の計算手法を使う。パーセプトロン
は神経の動きに発送を得て考えられたものだけど、ただのプログラムの共通処理に過ぎない。
けど、単純処理のパーセプトロンを連ねることによって、様々な入力に即応した回答が
できるようにしているものがいまの汎用AI。
数学では、入力が二次元、三次元、四次元とパラメータが増えていくことで計算方法が
格段に難しくなっていくけど、AIの場合、パラメータの数は左程気にしない。なので、ものすごい
多い要素をもとにしたデータ出力ができるようになっている。 便所盗撮サイト乱立してるシナチ●ン犯罪者のスレタテの現実逃避スレ(笑)
アシスタント喰らい麻美婆ちゃんはアシスタントとの中だし動画大公開中だろ
アシスタント喰らい麻美婆ちゃんの名前バンバン出すわー
サンジャポすれでもな
何の知識も無く、いつも他人様におうかがいスレを立てる女みたいな池沼>>1(笑)
コイツ何かと被ってると思ったら、糞ダサい菅野とダブるわー
チョソ犯罪者集団に便所盗撮サイト乱立依頼して飛ばされた某荒木先生(笑)は目立ちたがり前川とダブるし、パヨちんや在チョソは画一的でキモいと言う特徴以外無いな
チョソ犯罪者集団に便所盗撮サイト乱立依頼して飛ばされた某荒木先生(笑)はやっぱ、在チョソ達からゆすられてんのか?
ガチで便所盗撮サイト乱立してるシナチ●ン犯罪者のスレタテ
by 宅/\朗←カネに困ってる奴ら注目 >>60
AIがやってることも、乱暴に言えば正規分布の近似だよ。
それをデータをまとめた状態で一回で出すか、細かい単位で
計算しながら都度に最適化しながら出していくかは大きく違うけど。 じんじんじんじんギスカーンが一日中ループしてしまうやつだろ ディープとくると必ずスロートと続いて、
裸のおねえさんのこれからの動作を想像してしまうよ。 最小二乗法は比喩だろ
複数のサンプル(点)から規則性(関数)を見つけ出す、そんで新しい点を作り出せるのがAIって言いたいだけ >>1
もともとニューラルネットワーク自体がデータに対して
関数を合わせこむ手法。だからややこしい最小二乗法と
言っても差し支えない。ディープラーニングはその変数を
やたらと増やして複雑にしたディープニューラルネットワーク
を使った合わせこみ(学習)なのでやっぱり差し支えない。 喉の奥までつっこんで、そいつが
「あ。私ってメスなんだ。今はこの人のおもちゃなんだ」
ってわからすための学習行為 現状おすすめ動画の精度がサッパリだが
進化すれば直球ど真ん中になるはず >>73
ラジオ聴いてみろよ、バンバンCM流れてるぜ(´・ω・`) >>11
一ヶ月後アパートの入居者全員ペラペラになりました 「多層」のニューラルネットワークへの学習方法だから深層学習なのか、スッキリした サワガニが勝手にディープ・ラーニングを申し込んでた。 スピードラーニング始めたら何故か両隣の住民まで英語がペラペラになるってアレの事だろ? データの重み付けと関数化次第なんだよな
だから「すげーな」としか言えない
データの順位の付け方とか、共通項を割り出す関数の作り方とか
みんな数学なんだよな… Highway StarとかSmoke on the waterとか 正解と出力の差を小さくするって意味では最小二乗法
実際にそうなるパラメータを見つけるのが簡単ではなかった
今でも対象とする問題によっては計算力が必要 >>1
22歳のシンママが12才の男の子に手取り足取りディープなことを教えてあげる事 AVソムリエは莫大な量のAV動画を記憶している。
「この女優と作品名を教えてください!」画像からAV女優と作品名を瞬時に答えることが可能だ。
AVソムリエの脳内ではこのプロセスに高度なディープラーニングが使われていると推測される。 >>106
脳の神経細胞の研究をもとに、機械で模倣できる形式ニューロンという
仕組みを考えた学者がいて、それがいまのAIの実装のアイデアのもと
になっている。
その後、コンピュータプログラムに導入する前提でパーセプトロンという
アイデアが生まれ、改良の後、やっとそれが実用化できるハードウェア
が揃ったところで実用的な実装となった。 Nスペの逆神じゃないが去年辺りからディープラーニングはオワコンって記事が専門家から出てきてるな
データセンターバブルも一気に冷めたし高度なマッチングアシストに落ち着くんかな 株価の動きを記録するのに使ってる。
結果と自作シグナルを分類して記録したところで
ニューラルネットワークに掛けて
その結果をさらに分類して、再評価したものを記録してる >>109
それってサイコロの再発明になってたりしないの?
○×つけたりのさ 言葉だけが先だって、何も知らんで導入するのはITの昔からの流れ。
AIはAIでいま実用でいろいろ使われてるよ。これからの応用幅もまだ
限界は見えてない。
ただ言われてるような、人と比較できるような知能ではないし、何にでも
応用できるものでもない。
落ち着くというより、使う必要がある人が使うってだけだよ。 DLのもう一歩手前のMachine Learningだけど、簡単に
やってみたいならこの本がお勧め。
https://www.amazon.co.jp/dp/4897979927/
Machine Learning の考え方から、実用に踏み込んだ
使い方、実際にMicrosoftの無料枠のシステムを使って
どのボタンを押して何を入力して申し込めばここまでできる
ってところまでガイドしてくれる。 難しい知識は必要ない。
後半になると、Pythonでのカスタマイズが出てくるけど。 >>11
無い。
例えばペラペラとは、
「お腹すいた」「腹減った」「お腹ペッコペコ」「空腹でござる」「腹が鳴ってる」色んな表現が出来ないとペラペラとは言わない バカを騙すための営業用語だぞ
横文字連発するやつは信用しないが鉄則 >>113
お前のペラペラの定義を披露されても・・・ >>115
いや ペラペラとはそういう事よ。そん時の気分を伝えれないとな。
つーか何に突っかかってきてんの?スピードラーニングをディスったからか? これだれもあまり何も言わないよね、特許侵害とかあるのかね 興味はある。
オライリーのディープラーニングの本読めばいいんだろ? ここだけの話、「中卒イキリチンパンGKTG YSFM」って猿なの? 目標の結果に近づくようにAIに自習させるイメージ
というと、やっぱり最小二乗法の一種なのか? くわしいメカニズムは割愛するが、海中には音を吸収する層がある。
いわゆる「変温層」である。
潜水艦はこの層を利用して自艦のスクリュー音を隠ぺいし、
海上で聞き耳をたてる敵水上艦のソナーを欺く。
深度を盾とするこうした戦術は、
音の発生をおさえる原始的な「サイレントランニング」戦術と区別して、
「ディープラーニング」と呼ばれる。 まあ最小二乗法ってわけではないけどただの関数の推定だな
適当にxとyのペア打ち込んでそこからy=f(x)がどんな形か調べるってだけのもの
ついでにこれはヒューリスティックなもので必ずいい答えが得られるわけでもないししっかり解析できているわけでもないけどなんか経験的に上手くいってるから使ってる ディープスロートとかバキュームフェラみたいなもんだろ 機械学習とかディープラーニングもツールだしな
使い方間違えると「世界で一番売れてる食品はマクドナルドのハンバーガーだから、世界で一番美味しい食品はマクドナルドのハンバーガーです(^q^)」とかいうアホな結論に行き着きかねない >>131
売上を美味しさに変換するのは道具云々以前の間違いだろ。
AIがどうとか関係ない。 最近はD+ニングよりD++のほうが主流らしいです。 >>1
>>「近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法
(誤差を最小にする近似計算の一手法
さっぱりわがんね >>132
いいや関係あるよ。AIは道具なんだから使う人間の使い方次第で間違った結論に行き着き得る可能性があるのは示明だろ。人間が解決対象とする課題の特性を見誤らないとなぜ言い切れる?
教師あり学習で食わせるデータについて、販売量や売り上げとその食べ物の美味しさ評価値(アンケート回答等)の高さに相関関係が強く見られるような標本が多いなら、判断関数の形成方向にデータ投入者のバイアスかかるかもよ?
教師なし学習でも美味しさを定量的に定義するための多項式生成していくとき、販売量多いものほど肯定的データがたくさん得られて
否定的意見の項の重み付けが小さくなるように初期方向性バイアスがかかる標本群が、ネットのアクセス可能領域に一時ブームとかで増えててそこに想定以上にフォーカスしてしまったら?
上は極端かつ単純化した話だが数値は時に人を欺くわけで、AIはツールだからこそ課題解決に用いる人間が複雑性の高い課題に非構造化要素がどう関わっているかより良く考えられないと、使い方を間違えるだろ >>137
物凄く大雑把に言えば、過去のデーターを使って将来を推測する手法の1つ。 入力と教師データ間の関係を学習して再計算可能にしているだけだからな
その関係を解釈して意味を与えるのは人間だし
コンピュータはただ計算しているだけ >>139
自分が持っている最小二乗法のイメージは
サンプリングデータからサンプリングできないところを
補間するって感じだけどな
時系列にも使えるかもしれないけど
過去と予測する未来で前提となる環境が変わってたら
そのモデルで予測しても精度が高くないだろう >>44
懐かしい
複数のロジックをもった人工知能を並列化しないと意味ないと思うんだけどまだ追いついてない? あれだろ?
レオパレスだったらみんなハッピーなやつ ディープランニング
ディープスロート
スピードラーニング
三大ワケワカメ 子宮まで突っ込んだ時の快感が忘れられないってことだよ 最小二乗法は解析解で、ディープラーニングは数値解という違いがあるのでは 土人並みの浅薄な計画(Dのプランニング)から来ているらしいよ! プロゴルファーの石川遼選手が受講したという事で何かと話題になっている教材だろ
知ってるよ 量子コンピュータなら別だが現在の原始的なコンピュータではマシなAIは作れまいよ 要するに大量に当たって砕けろ計算をさせて
そんな中からよさげなのを選ぶでおk? そう言っておけばかっこいい物
ディープランニングによる背景生成アプリが新海誠の丸パクりだった件もあるし
実体は無い データや手法の選び方に、豊富な経験に基づく深い学習が必要なもの ディープラーン
タイ東北部イサーン地方に伝わる煮込み料理。
少ない具材とシンプルな味付けが特徴。 熟読だよ
約款とかそーゆうの飛ばさないでよく読めって事だよ >>154
量子コンピュータは、一回の入力でかなり複雑な演算ができるけど、何度も繰り返す演算は苦手。
一応量子演算でもパーセプトロンを実現する設計は出来てるけど、いまの量子コンピュータは一回一回の入出力がコスト高すぎて実用にはならない。
DL、MLは常にデータを入出力しながら演算の重み付けを行い、評価方法を補正し続けることが必要だから。 FXの自動売買でディープラーニングで学習させたAIでを使ったやつってのを100万ちかくで買った人ならしってる。そういうので使うんだと思ってた。 >>50
あたしが好きなんだろうウッソ
ずっと愛していたんだよね ラジオでウザいほどウザいCM打ってる英会話のところ ■ このスレッドは過去ログ倉庫に格納されています