TensorFlow推出MLIR以加快機器學習速度

很多文章的報道都是由微觀而宏觀 , 今日小編講給大家帶來的關于TensorFlow推出MLIR以加快機器學習速度的資訊也不例外 , 希翼可以在一定的程度上開闊你們的視野!y有對TensorFlow推出MLIR以加快機器學習速度這篇文章感興趣的小伙伴可以一起來看看
致力于谷歌TensorFlow機器學習框架的工程師們已經發現了一個子項目MLIR,它旨在成為機器學習框架的通用中間語言 。

TensorFlow推出MLIR以加快機器學習速度


MLIR是Multi-Level Intermediate Representation的縮寫,它同意 將使用TensorFlow和其他機器學習庫的項目編譯為更有效的代碼,從而最大限度地利用底層硬件 。更重要的是 , MLIR可以及時被編譯器使用,將其優化優勢擴展到機器學習項目之外 。
MLIR不是像C ++或Python這樣的語言 。它代表了這些高級語言和機器代碼之間的中間編譯步驟 。編譯器框架LLVM使用自己的中間表示或IR 。LLVM的創始人之一Chris Lattner是MLIR的共同創始人 。將MLIR作為LLVM共同項目可以成為推廣其采納的一種方式 。
在 本月早些時候舉行的EuroLLVM會議的幻燈片演示中,Lattner和其他Googler Tatiana Shpeisman解釋了TensorFlow如何在內部產生多個IR , 但這些不同的IR不會互相受益 。MLIR為所有TensorFlow子系統提供單一的標準IR 。TensorFlow目前正在遷移以在內部使用MLIR 。
MLIR可能提供的另一個好處是并行編譯 。MLIR旨在同意 編譯器并行處理不同的代碼段,從而同意 機器學習模型和其他類型的應用程序更快地推向生產 。
【TensorFlow推出MLIR以加快機器學習速度】MLIR可以為機器學習之外的語言和框架提供其他好處 。例如,像Swift和Rust這樣基于LLVM的語言必須開辟自己的內部IR,因為這些語言中使用的許多優化都無法在LLVM中表達 。MLIR可以提供表達這些優化的標準方法 , 這些優化又可以重復用于其他語言 。

    猜你喜歡