你好,歡迎來到川北在線
微信
騰訊微博
新浪微博
輕松了解生成式AI 亞馬遜云科技詞匯表一鍵get
時間:2023-09-25 14:20   來源:搜狐   責任編輯:青青

  原標題:輕松了解生成式AI,亞馬遜云科技詞匯表一鍵get

  亞馬遜云科技一直致力于推進生成式AI普惠化,以降低AI/ML門檻,助力千行百業(yè),充分釋放生成式AI潛力,加速數(shù)智轉(zhuǎn)型與創(chuàng)新。接下來分享由亞馬遜云科技高級開發(fā)技術(shù)推廣工程師Brooke Jamieson整理總結(jié)的生成式AI詞匯表的N-Z部分內(nèi)容!

  N:代表神經(jīng)網(wǎng)絡(Neural Network)

  神經(jīng)網(wǎng)絡是人工智能對于人類大腦處理信息過程的一種模仿,通過每層或者說“神經(jīng)元”中的關(guān)聯(lián)節(jié)點對數(shù)據(jù)進行學習,并隨著時間推移不斷提升性能。神經(jīng)網(wǎng)絡使得計算機可以處理像圖像和文字解讀等復雜的任務,所以它在圖像識別、語音轉(zhuǎn)換文本、自然語言處理、以及個性化推薦等服務的實現(xiàn)中至關(guān)重要。神經(jīng)網(wǎng)絡可以學習并模仿輸入輸出數(shù)據(jù)間復雜且非線性的關(guān)系。

  O:代表基礎模型優(yōu)化(Optimization)

  在AI/ML中,優(yōu)化意味著通過調(diào)整超參數(shù)對模型進行微調(diào)以提高性能。這些超參數(shù)屬于外部配置變量,例如神經(jīng)網(wǎng)絡中的節(jié)點數(shù)量或?qū)W習率等超參數(shù)在模型訓練開始之前就已設定。使用貝葉斯優(yōu)化或網(wǎng)格搜索等方法尋找這些超參數(shù)的最優(yōu)值稱為超參數(shù)調(diào)優(yōu),此過程可以確保模型獲得最優(yōu)結(jié)果和 度。

  P:代表提示工程(Prompt Engineering)

  提示工程(Prompt Engineering)是設計和精煉提示或輸入激勵以引導大型語言模型生成特定輸出的過程。這涉及謹慎選擇關(guān)鍵字,提供上下文,以及在構(gòu)建輸入時,對模型要有具體的引導以使其產(chǎn)生期望的回復。無需通過微調(diào)復雜定制,通過提示工程即可控制模型的風格,語調(diào)和專業(yè)知識。在提示工程上預先投入精力,即便在未知數(shù)據(jù)或數(shù)據(jù)有限的情況下,模型生成也能表現(xiàn)良好。

  Q:代表量化(Quantisation)

  通常來說,量化涉及將連續(xù)值轉(zhuǎn)化為離散值。連續(xù)值是你可以測量的東西,并且可以在一定區(qū)間內(nèi)取任何值(例如,溫度值可以是26.31°),離散值則是孤立的點集(例如,海灘上的可卡犬的數(shù)量)。在機器學習的背景下,量化在神經(jīng)網(wǎng)絡中發(fā)揮作用,此時它表示將權(quán)重和激活轉(zhuǎn)換為低精度值。這是一個重要的轉(zhuǎn)換過程,特別是如果模型需要在內(nèi)存有限的設備上運行,因為它可以幫助減少神經(jīng)網(wǎng)絡的內(nèi)存要求、功耗和延遲。

  R:代表負責任的人工智能(Responsibility)

  AI中的責任是指在AI模型的開發(fā)和應用中持有的認知和道德原則,專注于公平性、有害性、真實性、隱私和知識產(chǎn)權(quán)等原則。生成式AI的復雜性(可以生成一系列內(nèi)容)在定義和執(zhí)行道德原則上提出了特殊的挑戰(zhàn)。開發(fā)負責任的AI的策略包括謹慎輸入訓練數(shù)據(jù)、開發(fā)防護模型以過濾不必要的內(nèi)容,以及在各個領域持續(xù)合作以確保AI系統(tǒng)對所有用戶都具備創(chuàng)新性、可靠性并尊重隱私。

  S:代表Amazon SageMaker

  Amazon SageMaker是亞馬遜云科技提供的一項全面托管的機器學習服務,使數(shù)據(jù)科學家和開發(fā)者能夠輕松構(gòu)建、訓練和部署ML模型。它提供了一個集成的Jupyter Notebook,用于數(shù)據(jù)探索、分析和模型開發(fā),而無需管理服務器。SageMaker還提供優(yōu)化算法,并支持自定義框架,使其成為機器學習任務的靈活且可擴展的解決方案。

  T:代表Transformers模型

  Transformers是一項在2017年的研究論文《注意力是你所需要的一切》(Attention Is All You Need)中提出的顛覆性技術(shù)。Transformer架構(gòu)是矩陣計算和神經(jīng)網(wǎng)絡的結(jié)合,其關(guān)鍵能力是將“注意力機制”應用到輸入數(shù)據(jù)的相關(guān)部分。Transformers允許語言模型并行處理數(shù)據(jù),并考慮句子的整個語境,而不僅僅是最后幾個詞。這些特性使Transformers能有效處理大量數(shù)據(jù),對推動生成式AI的發(fā)展起到了關(guān)鍵作用,并形成了能執(zhí)行復雜任務的大型語言模型的基礎。

  U:代表無監(jiān)督學習(Unsupervised Learning)

  無監(jiān)督學習是一種在無標簽數(shù)據(jù)上訓練的算法,輸出時也沒有對應的標簽。它可以用于自主發(fā)現(xiàn)數(shù)據(jù)中的隱藏模式、關(guān)系和結(jié)構(gòu),且沒有給定的目標值。應用包括將類似的內(nèi)容進行聚類,如將新聞文章分類,或檢測網(wǎng)絡流量中的異常,即可能存在的安全漏洞。無監(jiān)督學習就像我去往一個新的城市,在沒有地圖指引的情況下,我會自己探索,找出地標、布局和城市中的商店模式,自主地進行探索。

  相反,有監(jiān)督學習是在有標記的數(shù)據(jù)上進行訓練,同時提供輸入和對應的輸出。模型通過理解輸入和期望輸出之間的關(guān)系來進行預測或決策。例如,利用樓盤位置和房間數(shù)量等特征來預測房屋價格,或從標記過的數(shù)字圖像中識別手寫數(shù)字。有監(jiān)督學習就像對著參考答案做作業(yè)一樣——問題(輸入數(shù)據(jù))和答案(輸出標簽)都已提供,所以你可以通過看問題和答案來學習。一旦一個模型(或者說學生)經(jīng)過有監(jiān)督學習訓練,他們可以對新的未見過的數(shù)據(jù)做出預測,就像在考試中考到類似的題目一樣。

  V:代表向量數(shù)據(jù)庫(Vector Databases)

  向量數(shù)據(jù)庫是一種專用數(shù)據(jù)庫,支持存儲和檢索代表各種類型數(shù)據(jù)的高維向量。它可以用于在N維空間中有效和快速地查找最近鄰,因此對于語義搜索、向量搜索和多模態(tài)搜索等任務非常有用。向量數(shù)據(jù)庫在生成式AI應用的背后起著關(guān)鍵作用,因為它們可以支持定制語言模型,提高準確性,并為對話式搜索或根據(jù)文本提示生成圖像等獨特的用戶體驗提供基礎。

  W:代表模型權(quán)重(Weights)

  權(quán)重是神經(jīng)網(wǎng)絡中使用的數(shù)值,用于確定神經(jīng)元之間連接的強度,特別是在像在2017年的研究論文《注意力是你所需要的一切》(Attention Is All You Need)中提出的Transformer這樣的系統(tǒng)中。這些權(quán)重在注意力機制中起著關(guān)鍵作用,因為它們可以讓網(wǎng)絡專注于輸入的特定部分,使模型能夠生成更具上下文相關(guān)性的輸出。你可以把權(quán)重看作是在訓練過程中進行微調(diào)的參數(shù),幫助模型理解和處理數(shù)據(jù)中的復雜關(guān)系和模式。

  X:代表可解釋AI(XAI)

  可解釋的人工智能(通常簡稱為XAI)對于建立對AI系統(tǒng)的信任和信心至關(guān)重要,特別是當AI做出的決策可能產(chǎn)生重大后果時?山忉屝杂袃蓚關(guān)鍵方面:可詮釋性和可解釋性?稍忈屝砸馕吨斫釧I模型的內(nèi)部工作機制,如權(quán)重和特征,以理解如何生成預測及其原因。另一方面,可解釋性使用與模型無關(guān)的方法來用人類的語言描述AI模型的行為,即使對于“黑箱”模型也是如此。一個模型注重可詮釋性還是可解釋性,取決于具體的使用案例、數(shù)據(jù)類型和業(yè)務需求,這可能涉及在實現(xiàn)高性能和保持解釋模型行為的能力之間進行權(quán)衡。

  Y:代表你可以在亞馬遜云科技構(gòu)建這一切

  (You Can Build on Amazon Web Services)

  25年以來,亞馬遜一直致力于開發(fā)人工智能和機器學習技術(shù),許多開發(fā)者選擇在亞馬遜云科技構(gòu)建、訓練和部署他們的AI/ML模型都不是偶然。

  Z:代表零樣本學習(Zero-Shot Learning)

  零樣本學習是一種機器學習技術(shù),這種技術(shù)可以讓模型對在訓練階段未見過的數(shù)據(jù)進行預測或分類。這個概念利用向量將輸入(例如文本或視頻)映射到一個語義空間,在這個空間中,意義被聚集起來。在這里,模型可以基于接近已知概念的程度,通過分析向量之間的距離,在語義空間中進行分類或預測。零樣本學習對自然語言處理(NLP)等領域非常有用,它提供了靈活性,擴展了如Transformers和基礎模型等預訓練模型的應用。

   投稿郵箱:chuanbeiol@163.com   詳情請訪問川北在線:http://m.fishbao.com.cn/

川北在線-川北全搜索版權(quán)與免責聲明
①凡注明"來源:XXX(非在線)"的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責,本網(wǎng)不承擔此類稿件侵權(quán)行為的連帶責任。
②本站所載之信息僅為網(wǎng)民提供參考之用,不構(gòu)成任何投資建議,文章觀點不代表本站立場,其真實性由作者或稿源方負責,本站信息接受廣大網(wǎng)民的監(jiān)督、投訴、批評。
③本站轉(zhuǎn)載純粹出于為網(wǎng)民傳遞更多信息之目的,本站不原創(chuàng)、不存儲視頻,所有視頻均分享自其他視頻分享網(wǎng)站,如涉及到您的版權(quán)問題,請與本網(wǎng)聯(lián)系,我站將及時進行刪除處理。



圖庫
合作媒體
金寵物 綠植迷
法律顧問:ITLAW-莊毅雄律師