
Follow friends on the app and stay updated!
Scan the QR code

Follow friends on the app and stay updated!
Scan the QR code
Public ・ 05.01

2025.04.30 (Wed)
-正經八百的說謊話- 《關於ChatGPT,你知道多少⁉️》──EP7 ☢️GPT幻覺(Hallucinate) 在大型語言模型(LLM)裡,當缺乏正確資料時,LLM會硬湊出一個『聽起來合理』但『實際錯誤』的回答。 💬你問它:「牛頓是哪一年發明相對論的?」 它可能會一本正經回答:「是 1687 年。」 但我們都知道,相對論是愛因斯坦提出的。 ⁉️為什麼會發生: 1️⃣它不是在「理解」事實,而是在「預測下一個字」。 2️⃣它沒有真正的記憶或資料庫,而是「根據訓練過的語料」來生成語言。 3️⃣它不會主動分辨真假,除非你特別要求它驗證或舉證。 💬有人就會問了,這難得無法避免嗎?誰要一個亂說話的工具,但是……你認為的胡說八道,其實是他運作中的基礎。 讓我們,下篇繼續✨️✨️ #ChatGPT #AI互動心得 #ChatGPT使用技巧 #AI ⚠️文章內容由 聿YU 書寫,若需引用或轉載,請註明出處,謝謝。