<pre id="xxxvx"><pre id="xxxvx"></pre></pre>

      <address id="xxxvx"></address>
      <address id="xxxvx"><pre id="xxxvx"><span id="xxxvx"></span></pre></address>

      <address id="xxxvx"></address>

      <p id="xxxvx"><pre id="xxxvx"></pre></p>

      小螞蟻站長吧-互聯網運營、增長黑客學習交流平臺

      您好,歡迎訪問小螞蟻站長吧!

      超贊??!3D可視化工具透視神經網絡內部

      2022-10-27 17:12分類:數據可視化 閱讀:

        >

      哈嘍,大家伙兒好。

      你有沒有想過,我輩編寫之神經細胞網絡,內部究竟是何樣子之?

      加拿大蒙特利爾三家公司開發四個3D可視化家伙 —— Zetane Engine,扶助吾儕解決了這此問題。

      只要在Zetane Engine開啟三個吃水深造模子,便得以瞧到網絡中所有三層,并顯示特點圖。

      圖片

      為了演示Zetane Engine?之用戶,我搭建了AlexNet?網絡,在Fashion-MNIST數據集上教練了二個 10 個類此事分揀器。

      網絡架構如下面:

      tf.keras.layers.Conv2D(filters=96, kernel_size=11, strides=4, input_shape=(224,224,3), activation='relu'),
      tf.keras.layers.MaxPool2D(pool_size=3, strides=2),

      tf.keras.layers.Conv2D(filters=256, kernel_size=5, padding='same', activation='relu'),
      tf.keras.layers.MaxPool2D(pool_size=3, strides=2),

      tf.keras.layers.Conv2D(filters=384, kernel_size=3, padding='same',activation='relu'),

      tf.keras.layers.Conv2D(filters=384, kernel_size=3, padding='same',activation='relu'),

      tf.keras.layers.Conv2D(filters=256, kernel_size=3, padding='same',activation='relu'),
      tf.keras.layers.MaxPool2D(pool_size=3, strides=2),

      tf.keras.layers.Flatten(),
      tf.keras.layers.Dense(4096, activation='relu'),
      tf.keras.layers.Dropout(0.5),
      tf.keras.layers.Dense(4096, activation='relu'),
      tf.keras.layers.Dropout(0.5),
      tf.keras.layers.Dense(10)

      網絡采取Keras?搭建,AlexNet模子非常簡簡單單,包含5個卷積層和3個全聯接層。

      教練范本如底腳:

      圖片

      范本對應之 10 類別如下頭:

      圖片

      教練 50 個 epoch,模子之準兒度是 92%,將模子保留為alexnet.h5?,用Zetane Engine開啟

      圖片

      可足瞧到AlexNet之網絡組織。

      吾儕進口三張下身圖板,查瞅處女個卷積層出口之特點圖

      圖片

      首先個卷積層

      圖板經由頭版個卷積層后,出口業之特性圖肉眼能判若鴻溝辨識出是下身。

      咱再瞧下部經由更深層之卷積網絡之后,會是啥樣子

      圖片

      吃水卷積

      中間第2、3層醒豁有何不可瞅出是在提取緣緣風味,不用類此事形狀之沿緣特性是不同之,并且沿緣特點相比原圖致以力量更強,相當于是乎原圖更抽象七級之特性,不過此處還是得以瞧出去是下身。

      但到了第4、5層,特性更抽象了,肉眼已經瞧不出是小衣了,當然也便覽模子念書力量更強了。

      簡略小結下邊,神經原網絡從淺層到深層,習修之特點越來越抽象,深造力量也越來越強。

      AlexNet網絡除了有卷積層,還有池化層,俺們也方可瞅下頭特點繞過池化層之效果

      圖片

      色彩越黑亮,代理人權重越高。從上圖得以瞧到最大池化層能強化重在特點,發揮去噪、降維之作用。

      另外,你可能會主要到網絡上每個節線之前后都有四些白色圓線組成之方塊狀。

      圖片

      左沿代辦該節線進口特點和權重,右沿委托人進出口之特點。線擊她們堪好瞧到不同視角之表征圖

      圖片

      叁維視角

      圖片

      倆維視角

      圖片

      標號卷積產物之切面圖

      圖片

      卷積名堂之切面圖

      尤其對于網絡之最后十個節線,她之出口業是預測下文

      圖片

      她出口了長短為 10 之表征向計計,即:預測圖板屬于哪位類此事權重。足以瞅到權重最大之是類別1?,類別1?對應之是下身,就此模子之預測產物是無可非議之。

      上一篇:聊一聊美化Matplotlib三個小技巧

      下一篇:沒有了

      相關推薦
      ?
      返回頂部
      AAAAAA大片免费看最大的

      <pre id="xxxvx"><pre id="xxxvx"></pre></pre>

          <address id="xxxvx"></address>
          <address id="xxxvx"><pre id="xxxvx"><span id="xxxvx"></span></pre></address>

          <address id="xxxvx"></address>

          <p id="xxxvx"><pre id="xxxvx"></pre></p>