生成式AI
看起來神經網路已經行之有年 為什麼感覺最近幾年才大爆發呢
理由在於最近興起的是生成式AI
以往的AI是給AI資料 AI則回應資訊
現在則是給予資訊 AI回應資料
舉例來說
神經網路可以將左側的圖轉變成右側的描述
那麼科學家就想了
如果我們輸入右邊的結果
有沒有辦法獲得左側的圖呢
答案是可以
這就是最近流行的圖片生成
原本是我們是給圖片 神經網路告訴我們圖片內有什麼
現在我們是告訴神經網路我們希望圖片內有什麼
神經網路產生圖片給我們
這一切都要歸功於Google於2017年的一篇論文
Attention is All You Need
提出了一種新的神經網路架構
Transfromer
並使用注意力機制來處理數據
從而使得神經網路可以更好的學習數據 並生成更準確的內容
同時使得生成長文本變得可能
之後有許多公司都陸續使用這個架構去實作自己的AI模型
例如比較有名的是OpenAI的GPT模型及Gooele的PaLM還有Meta的LLama
這裡可能需要特別說明一下模型與產品的區別
OpenAI的GPT具有1, 2, 3, 3.5, 3.5Turbo, 4等不同版本的模型
而ChatGPT則是產品的名稱
這個產品是使用GPT3.5 Turbo這個模型驅動的
Google有一個名為Bard的聊天機器人
他的模型則是使用了LaMDA
那麼 為什麼要分成模型跟產品呢
理由在於大型語言模型除了當成聊天機器人的基底之外
還可以用於文本分析或翻譯
或是為圖像生成提供自然語言的理解
讓圖像生成的AI更好理解人類的自然語言
從而生出更準確的圖像
在使用DALL-E等生圖軟體時 也不必一定只能使用英文
這都是歸功於語言模型的能力
而聊天機器人只是基於這個模型所做出的產品之一罷了
© 零創科技有限公司 2024