今年來人工智能的概念越來越火,AlphaGo以4:1擊敗李世石更是起到推波助瀾的作用。作為一個開挖掘機的菜鳥,深深感到不學習一下deep learning早晚要被淘汰。 既然要開始學,當然是搭一個深度
這篇文章主要講TensorFlow中的Session的用法以及Variable。 Session會話控制 Session是TensorFlow為了控制和輸出文件的執行語句,運行session.run(
如果最小二乘線性回歸算法最小化到回歸直線的豎直距離(即,平行于y軸方向),則戴明回歸最小化到回歸直線的總距離(即,垂直于回歸直線)。其最小化x值和y值兩個方向的誤差,具體的對比圖如下圖。
采用最小二乘的求逆方法在大部分情況下是低效率的。特別地,當局鎮非常大時效率更低。另外一種實現方法是矩陣分解,此方法使用tensorflow內建的Cholesky矩陣分解法。Cholesky矩陣分解法把
Google提供了一個工具,TensorBoard,它能以圖表的方式分析你在訓練過程中匯總的各種數據,其中包括Graph結構。 所以我們可以簡單的寫幾行Pyhton,加載Graph,只在logdir里
我就廢話不多說了,直接上代碼吧! #!/bin/bash # -*-coding=utf-8-*- import re import os import sys import numpy as n
以此文記錄Python與Tensorflow及其開發環境的安裝與配置過程,以備以后參考。 1 硬件與系統條件 Win7 64位系統,顯卡為NVIDIA GeforeGT 635M 2 安裝策略 a
將訓練好的模型參數保存起來,以便以后進行驗證或測試,這是我們經常要做的事情。tf里面提供模型保存的是tf.train.Saver()模塊。 模型保存,先要創建一個Saver對象:如 saver=t
tensorflow由于其基于靜態圖的模式,導致寫代碼的時候很難調試,除了用官方的調試工具外,最直接的方法就是把中間結果輸出出來查看,然而,直接用print函數只能輸出tensor變量的形狀,而不是數
tensorflow下設置使用某一塊GPU(從0開始編號): import os os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" os.environ