Tumgik
blog-by-raika · 10 months
Text
【ChatGPT】AnsibleのblockinfileをShellスクリプトで再現してもらいました
完璧すぎますね! #!/bin/bash file_path="/path/to/file.txt" block_start="### START ANSIBLE BLOCK ###" block_end="### END ANSIBLE BLOCK ###" new_block_content="This is the content of the new block." # ファイルに既にブロックが存在するかどうかを確認 if grep -Fxq "$block_start" "$file_path" && grep -Fxq "$block_end" "$file_path"; then # ブロックが既に存在する場合、既存のブロックを削除して新しいブロックを挿入 sed -i -e "/$block_start/,/$block_end/d" "$file_path" echo "$block_start" >> "$file_path" echo "$new_block_content" >> "$file_path" echo "$block_end" >> "$file_path" else # ブロックが存在しない場合、ファイルの末尾に新しいブロックを追加 echo "$block_start" >> "$file_path" echo "$new_block_content" >> "$file_path" echo "$block_end" >> "$file_path" fi Read the full article
0 notes
blog-by-raika · 11 months
Text
【DeepLearning】パラメータの更新
Deep Learning とは何なのか・・・まったく知らない状態から挑戦してみたいと思います! パラメータとは パラメータとは「機械学習モデル内の調整可能な値」を指すようです。 この「機械学習モデル内の調整可能な値」とは学習アルゴリズムによって異なるそうです。 本学習の文脈では「ニューラルネットワーク」が学習アルゴリズムとして紹介されています。 ニューラルネットワークにおけるパラメータは「重み」と「バイアス」になります。 他のアルゴリズムに「サポートベクターマシン」というアルゴリズムがあります。 こちらはカーネル関数のパラメータや正則化パラメータが。 「決定木(Decision…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 11 months
Text
【DeepLearning】逆伝播と数値微分
Deep Learning…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 11 months
Text
【DeepLearning】行列の積 ( アフィン変換 )
Deep Learning とは何なのか・・・まったく知らない状態から挑戦してみたいと思います! 順伝播で行われる行列の積(アフィン変換) 行列の積(アフィン変換)は入力データと学習された重み行列の積を計算することで、出力を生成するための線形変換を行います。 変換手順は以下の通りです。 入力データを受ける: ニューラルネットワークの順伝播の最初のステップではネットワークへの入力データが与えられます。 (この入力データは通常ベクトルまたは行列の形式) ニューロンと重み行列の積を計算: 各ニューロンには学習された重み行列が割り当てられています。 この重み行列はニューラルネットワークのパラメータとして学習中に最適化されます。 入力データと重み行列の積は線形結合を表します。 線形結合 = 入力データ × 重み +…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 11 months
Text
【DeepLeaning】機械学習における連鎖律
Deep Learning とは何なのか・・・まったく知らない状態から挑戦してみたいと思います! 機械学習では「連鎖律」という言葉は一般的ではない!? 「連鎖律」が機械学習の要である!・・・くらいの勢いで学習をしていたのですがそうではないようです🤔 機械学習では「教師あり学習」という学習方法があります。 この学習方法の仕組みの一部として「バックプロパゲーション」という誤差を逆伝播するための仕組みがあります。 ココで使用される「原理」のことだそうです。 連鎖律は、合成関数の微分を求めるための基本的なルール 連鎖律を表す数式 \[ f'(g(x)) = f'(g(x)) \cdot g'(x) \] f’ ・・・関数 f…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 1 year
Text
【DeepLeaning】誤差逆伝播法概要整理
Deep Learning とは何なのか・・・まったく知らない状態から挑戦してみたいと思います! 誤差逆伝播法とは 機械学習においてニューラルネットワーク(Neural…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 1 year
Text
【DeepLeaning】エポックとは?
Deep Learning…
Tumblr media
View On WordPress
1 note · View note
blog-by-raika · 1 year
Text
【DeepLeaning】 驚異のAI技術ニューラルネットワーク!有名モデルファイルを使った正確な推論処理の可能性とは?
Deep Learning…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 1 year
Text
【DeepLeaning】 ソフトマックス関数から見えたニューラルネットワークの目的
Deep Learning…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 1 year
Text
【DeepLeaning】 ニューラルネットワーク 出力層の設計
Deep Learning…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 1 year
Text
【DeepLeaning】 行列の積がよくわからない
Deep Learning とは何なのか・・・まったく知らない状態から挑戦してみたいと思います! 行列の積とは 行列の積とは2つ以上の行列を掛け合わせることによって新しい行列を得る計算方法です。 例えば、2つの行列AとBがあった場合、AとBの積をCとすると、 C = AB と表記されます。 ただし、行列Aの列数と行列Bの行数が一致する必要があります。 行列Aがm行n列で、行列Bがn行p列の場合、Cの行数はm、列数はpとなります。 行列Cの(i, j)成分は、Aのi行とBのj列の内積に相当します。つまり、以下の式で表されます。 C(i, j) = A(i,1)B(1,j) + A(i,2)B(2,j) + … +…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 1 year
Text
Javaの Lombok は改めてすごい!
過去にも Java の Lombok…
View On WordPress
1 note · View note
blog-by-raika · 1 year
Text
【DeepLeaning】 活性化関数 ReLU関数
Deep Learning とは何なのか・・・まったく知らない状態から挑戦してみたいと思います! ReLU関数   ReLU(Rectified Linear Unit)関数はニューラルネットワークの活性化関数の1つで、最も一般的に使用されています。 ReLU関数は、入力が0以下の場合には0を出力し0より大きい場合には入力値をそのまま出力する関数です。 数式で表すと以下のようになります。 f(x) = max(0,…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 1 year
Text
【DeepLeaning】 活性化関数 シグモイド関数 と ステップ関数
Deep Learning…
Tumblr media
View On WordPress
1 note · View note
blog-by-raika · 1 year
Text
【DeepLeaning】 活性化関数 シグモイド関数
Deep Learning とは何なのか・・・まったく知らない状態から挑戦してみたいと思います! シグモイド関数 シグモイド関数は、数学的には以下のように定義されます。 f(x) = 1 / (1 + e^(-x)) ここでeは自然対数の底で、xは入力値を表します。 また以下の式と等価です。 h(x) = 1/ 1 + exp(-x)   左オペランドの不思議 左オペランドのf(x) とh(x)は関数名(と引数)のようなものなのでなんでも良いそうです。 なのでh(x) = 1/ 1 + exp(-x) は f(x) = 1/ 1 + exp(-x)…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 1 year
Text
【DeepLeaning】 ニューラルネットワークとパーセプトロン
Deep Learning…
Tumblr media
View On WordPress
0 notes
blog-by-raika · 1 year
Text
【DeepLeaning】 パーセプトロン 限界
Deep Learning とは何なのか・・・まったく知らない状態から挑戦してみたいと思います! パーセプトロンはXORを表現できない いままで学んできたパーセプトロンは正確には「単層パーセプトロン」というようです。 単層パーセプトロンではXORゲートを表現することはできません。 XORゲートは2つの入力が異なる場合にのみ出力が1になる論理演算(排他的論理和)です。 これは単層のパーセプトロンでは表現できない非線形問題であり、 単層のパーセプトロンは線形分離可能な問題にしか対応できません。 線形?非線形? 線形とは2つの変数が比例して変化することを指します。 すなわちある入力に対して出力が比例的に変化する関数であることを言います。 例えば、y = 2x + 3 は線形関数であり、x が 1 増えるごとに y も 2…
Tumblr media
View On WordPress
0 notes