您好,登錄后才能下訂單哦!
這篇文章主要講解了Golang讀取文件內容的方法,內容清晰明了,對此有興趣的小伙伴可以學習一下,相信大家閱讀完之后會有幫助。
本文旨在快速介紹Go標準庫中讀取文件的許多選項。
在Go中(就此而言,大多數底層語言和某些動態語言(如Node))返回字節流。 不將所有內容自動轉換為字符串的好處是,其中之一是避免昂貴的字符串分配,這會增加GC壓力。
為了使本文更加簡單,我將使用string(arrayOfBytes)將bytes數組轉換為字符串。 但是,在發布生產代碼時,不應將其作為一般建議。
1.讀取整個文件到內存中
首先,標準庫提供了多種功能和實用程序來讀取文件數據。我們將從os軟件包中提供的基本情況開始。這意味著兩個先決條件:
有了os.File對象的句柄,我們可以查詢大小并實例化一個字節列表。
package main import ( "os" "fmt" ) func main() { file, err := os.Open("filetoread.txt") if err != nil { fmt.Println(err) return } defer file.Close() fileinfo, err := file.Stat() if err != nil { fmt.Println(err) return } filesize := fileinfo.Size() buffer := make([]byte, filesize) bytesread, err := file.Read(buffer) if err != nil { fmt.Println(err) return } fmt.Println("bytes read: ", bytesread) fmt.Println("bytestream to string: ", string(buffer)) }
2.以塊的形式讀取文件
雖然大多數情況下可以一次讀取文件,但有時我們還是想使用一種更加節省內存的方法。例如,以某種大小的塊讀取文件,處理它們,并重復直到結束。在下面的示例中,使用的緩沖區大小為100字節。
package main import ( "io" "os" "fmt" ) const BufferSize = 100 func main() { file, err := os.Open("filetoread.txt") if err != nil { fmt.Println(err) return } defer file.Close() buffer := make([]byte, BufferSize) for { bytesread, err := file.Read(buffer) if err != nil { if err != io.EOF { fmt.Println(err) } break } fmt.Println("bytes read: ", bytesread) fmt.Println("bytestream to string: ", string(buffer[:bytesread])) } }
與完全讀取文件相比,主要區別在于:
對于循環的每次迭代,都會更新內部文件指針。 下次讀取時,將返回從文件指針偏移開始直到緩沖區大小的數據。 該指針不是語言的構造,而是操作系統之一。 在Linux上,此指針是要創建的文件描述符的屬性。 所有的read / Read調用(分別在Ruby / Go中)在內部都轉換為系統調用并發送到內核,并且內核管理此指針。
3.并發讀取文件塊
如果我們想加快對上述塊的處理,該怎么辦?一種方法是使用多個go例程!與串行讀取塊相比,我們需要做的另一項工作是我們需要知道每個例程的偏移量。請注意,當目標緩沖區的大小大于剩余的字節數時,ReadAt的行為與Read的行為略有不同。
另請注意,我并沒有限制goroutine的數量,它僅由緩沖區大小來定義。實際上,此數字可能會有上限。
package main import ( "fmt" "os" "sync" ) const BufferSize = 100 type chunk struct { bufsize int offset int64 } func main() { file, err := os.Open("filetoread.txt") if err != nil { fmt.Println(err) return } defer file.Close() fileinfo, err := file.Stat() if err != nil { fmt.Println(err) return } filesize := int(fileinfo.Size()) // Number of go routines we need to spawn. concurrency := filesize / BufferSize // buffer sizes that each of the go routine below should use. ReadAt // returns an error if the buffer size is larger than the bytes returned // from the file. chunksizes := make([]chunk, concurrency) // All buffer sizes are the same in the normal case. Offsets depend on the // index. Second go routine should start at 100, for example, given our // buffer size of 100. for i := 0; i < concurrency; i++ { chunksizes[i].bufsize = BufferSize chunksizes[i].offset = int64(BufferSize * i) } // check for any left over bytes. Add the residual number of bytes as the // the last chunk size. if remainder := filesize % BufferSize; remainder != 0 { c := chunk{bufsize: remainder, offset: int64(concurrency * BufferSize)} concurrency++ chunksizes = append(chunksizes, c) } var wg sync.WaitGroup wg.Add(concurrency) for i := 0; i < concurrency; i++ { go func(chunksizes []chunk, i int) { defer wg.Done() chunk := chunksizes[i] buffer := make([]byte, chunk.bufsize) bytesread, err := file.ReadAt(buffer, chunk.offset) if err != nil { fmt.Println(err) return } fmt.Println("bytes read, string(bytestream): ", bytesread) fmt.Println("bytestream to string: ", string(buffer)) }(chunksizes, i) } wg.Wait() }
與以前的任何方法相比,這種方法要多得多:
注意:始終檢查返回的字節數,并重新分配輸出緩沖區。
使用Read()讀取文件可以走很長一段路,但是有時您需要更多的便利。Ruby中經常使用的是IO函數,例如each_line,each_char, each_codepoint 等等.通過使用Scanner類型以及bufio軟件包中的關聯函數,我們可以實現類似的目的。
bufio.Scanner類型實現帶有“ split”功能的函數,并基于該功能前進指針。例如,對于每個迭代,內置的bufio.ScanLines拆分函數都會使指針前進,直到下一個換行符為止.
在每個步驟中,該類型還公開用于獲取開始位置和結束位置之間的字節數組/字符串的方法。
package main import ( "fmt" "os" "bufio" ) const BufferSize = 100 type chunk struct { bufsize int offset int64 } func main() { file, err := os.Open("filetoread.txt") if err != nil { fmt.Println(err) return } defer file.Close() scanner := bufio.NewScanner(file) scanner.Split(bufio.ScanLines) // Returns a boolean based on whether there's a next instance of `\n` // character in the IO stream. This step also advances the internal pointer // to the next position (after '\n') if it did find that token. for { read := scanner.Scan() if !read { break } fmt.Println("read byte array: ", scanner.Bytes()) fmt.Println("read string: ", scanner.Text()) } }
因此,要以這種方式逐行讀取整個文件,可以使用如下所示的內容:
package main import ( "bufio" "fmt" "os" ) func main() { file, err := os.Open("filetoread.txt") if err != nil { fmt.Println(err) return } defer file.Close() scanner := bufio.NewScanner(file) scanner.Split(bufio.ScanLines) // This is our buffer now var lines []string for scanner.Scan() { lines = append(lines, scanner.Text()) } fmt.Println("read lines:") for _, line := range lines { fmt.Println(line) } }
4.逐字掃描
bufio軟件包包含基本的預定義拆分功能:
因此,要讀取文件并在文件中創建單詞列表,可以使用如下所示的內容:
package main import ( "bufio" "fmt" "os" ) func main() { file, err := os.Open("filetoread.txt") if err != nil { fmt.Println(err) return } defer file.Close() scanner := bufio.NewScanner(file) scanner.Split(bufio.ScanWords) var words []string for scanner.Scan() { words = append(words, scanner.Text()) } fmt.Println("word list:") for _, word := range words { fmt.Println(word) } }
ScanBytes拆分函數將提供與早期Read()示例相同的輸出。 兩者之間的主要區別是在掃描程序中,每次需要附加到字節/字符串數組時,動態分配問題。 可以通過諸如將緩沖區預初始化為特定長度的技術來避免這種情況,并且只有在達到前一個限制時才增加大小。 使用與上述相同的示例:
package main import ( "bufio" "fmt" "os" ) func main() { file, err := os.Open("filetoread.txt") if err != nil { fmt.Println(err) return } defer file.Close() scanner := bufio.NewScanner(file) scanner.Split(bufio.ScanWords) // initial size of our wordlist bufferSize := 50 words := make([]string, bufferSize) pos := 0 for scanner.Scan() { if err := scanner.Err(); err != nil { // This error is a non-EOF error. End the iteration if we encounter // an error fmt.Println(err) break } words[pos] = scanner.Text() pos++ if pos >= len(words) { // expand the buffer by 100 again newbuf := make([]string, bufferSize) words = append(words, newbuf...) } } fmt.Println("word list:") // we are iterating only until the value of "pos" because our buffer size // might be more than the number of words because we increase the length by // a constant value. Or the scanner loop might've terminated due to an // error prematurely. In this case the "pos" contains the index of the last // successful update. for _, word := range words[:pos] { fmt.Println(word) } }
因此,我們最終要進行的切片“增長”操作要少得多,但最終可能要根據緩沖區大小和文件中的單詞數在結尾處留出一些空插槽,這是一個折衷方案。
5.將長字符串拆分為單詞
bufio.NewScanner使用滿足io.Reader接口的類型作為參數,這意味著它將與定義了Read方法的任何類型一起使用。
標準庫中返回reader類型的string實用程序方法之一是strings.NewReader函數。當從字符串中讀取單詞時,我們可以將兩者結合起來:
package main import ( "bufio" "fmt" "strings" ) func main() { longstring := "This is a very long string. Not." var words []string scanner := bufio.NewScanner(strings.NewReader(longstring)) scanner.Split(bufio.ScanWords) for scanner.Scan() { words = append(words, scanner.Text()) } fmt.Println("word list:") for _, word := range words { fmt.Println(word) } }
6.掃描以逗號分隔的字符串
手動解析CSV文件/字符串通過基本的file.Read()或者Scanner類型是復雜的。因為根據拆分功能bufio.ScanWords,“單詞”被定義為一串由unicode空間界定的符文。讀取各個符文并跟蹤緩沖區的大小和位置(例如在詞法分析中所做的工作)是太多的工作和操作。
但這可以避免。 我們可以定義一個新的拆分函數,該函數讀取字符直到讀者遇到逗號,然后在調用Text()或Bytes()時返回該塊。bufio.SplitFunc函數的函數簽名如下所示:
type SplitFunc func(data []byte, atEOF bool) (advance int, token []byte, err error)
為簡單起見,我展示了一個讀取字符串而不是文件的示例。 使用上述簽名的CSV字符串的簡單閱讀器可以是:
package main import ( "bufio" "bytes" "fmt" "strings" ) func main() { csvstring := "name, age, occupation" // An anonymous function declaration to avoid repeating main() ScanCSV := func(data []byte, atEOF bool) (advance int, token []byte, err error) { commaidx := bytes.IndexByte(data, ',') if commaidx > 0 { // we need to return the next position buffer := data[:commaidx] return commaidx + 1, bytes.TrimSpace(buffer), nil } // if we are at the end of the string, just return the entire buffer if atEOF { // but only do that when there is some data. If not, this might mean // that we've reached the end of our input CSV string if len(data) > 0 { return len(data), bytes.TrimSpace(data), nil } } // when 0, nil, nil is returned, this is a signal to the interface to read // more data in from the input reader. In this case, this input is our // string reader and this pretty much will never occur. return 0, nil, nil } scanner := bufio.NewScanner(strings.NewReader(csvstring)) scanner.Split(ScanCSV) for scanner.Scan() { fmt.Println(scanner.Text()) } }
7.ioutil
我們已經看到了多種讀取文件的方式.但是,如果您只想將文件讀入緩沖區怎么辦?
ioutil是標準庫中的軟件包,其中包含一些使它成為單行的功能。
讀取整個文件
package main import ( "io/ioutil" "log" "fmt" ) func main() { bytes, err := ioutil.ReadFile("filetoread.txt") if err != nil { log.Fatal(err) } fmt.Println("Bytes read: ", len(bytes)) fmt.Println("String read: ", string(bytes)) }
這更接近我們在高級腳本語言中看到的內容。
讀取文件的整個目錄
不用說,如果您有大文件,請不要運行此腳本
package main import ( "io/ioutil" "log" "fmt" ) func main() { filelist, err := ioutil.ReadDir(".") if err != nil { log.Fatal(err) } for _, fileinfo := range filelist { if fileinfo.Mode().IsRegular() { bytes, err := ioutil.ReadFile(fileinfo.Name()) if err != nil { log.Fatal(err) } fmt.Println("Bytes read: ", len(bytes)) fmt.Println("String read: ", string(bytes)) } } }
看完上述內容,是不是對Golang讀取文件內容的方法有進一步的了解,如果還想學習更多內容,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。