生成式AI

看起來神經網路已經行之有年 為什麼感覺最近幾年才大爆發呢

理由在於最近興起的是生成式AI

以往的AI是給AI資料 AI則回應資訊

現在則是給予資訊 AI回應資料


舉例來說

神經網路可以將左側的圖轉變成右側的描述

那麼科學家就想了

如果我們輸入右邊的結果

有沒有辦法獲得左側的圖呢

答案是可以

這就是最近流行的圖片生成

原本是我們是給圖片 神經網路告訴我們圖片內有什麼

現在我們是告訴神經網路我們希望圖片內有什麼

神經網路產生圖片給我們

這一切都要歸功於Google於2017年的一篇論文

Attention is All You Need

提出了一種新的神經網路架構

Transfromer

並使用注意力機制來處理數據

從而使得神經網路可以更好的學習數據 並生成更準確的內容

同時使得生成長文本變得可能

之後有許多公司都陸續使用這個架構去實作自己的AI模型

例如比較有名的是OpenAI的GPT模型及Gooele的PaLM還有Meta的LLama


這裡可能需要特別說明一下模型與產品的區別

OpenAI的GPT具有1, 2, 3, 3.5, 3.5Turbo, 4等不同版本的模型

而ChatGPT則是產品的名稱

這個產品是使用GPT3.5 Turbo這個模型驅動的

Google有一個名為Bard的聊天機器人

他的模型則是使用了LaMDA


那麼 為什麼要分成模型跟產品呢

理由在於大型語言模型除了當成聊天機器人的基底之外

還可以用於文本分析或翻譯

或是為圖像生成提供自然語言的理解

讓圖像生成的AI更好理解人類的自然語言

從而生出更準確的圖像

在使用DALL-E等生圖軟體時 也不必一定只能使用英文

這都是歸功於語言模型的能力

而聊天機器人只是基於這個模型所做出的產品之一罷了

© 零創科技有限公司 2024