雅虎香港 搜尋

搜尋結果

      • 當一個聊天機器人「創造了它以事實呈現給使用者的訊息」時,這被稱為「覺」。 正是因為ChatGPT有可能噴出幻覺,一些技術專家警告聊天機器人使用者要小心。 根據波士頓諮詢集團最近的一項研究,如果使用者對ChatGPT的輸出「盲目接受而不對其進行錯誤篩查」,則在工作中使用ChatGPT的人在某些任務上實際表現會變得較差。
      tokto.ai/blog/how-ai-chatbots-like-chatgpt-work-explainer
  1. 其他人也問了

  2. 2023年11月14日 · 最近第三方研究證實,ChatGPT等AI聊天機器人會像人類一樣產生「幻覺」(hallucinations),且機率頗高。 AI為什麼要憑空捏造虛假資訊? 不說已通過律師考,智商很高? 研究揭露真相大出意外。 另外,AI出現幻覺的問題有辦法根治嗎? 最近第三方研究證實,ChatGPT等AI聊天機器人會像人類一樣產生「幻覺」(hallucinations),且機率頗高。 AI為什麼要憑空捏造虛假資訊? 不說已通過律師考,智商很高? 研究揭露真相大出意外。 另外,AI出現幻覺的問題有辦法根治嗎?

  3. 2023年11月15日 · 最近第三方研究證實, ChatGPT 等 AI 聊天 機器人 會像人類一樣產生「幻覺」(hallucinations),且機率頗高。 AI為什麼要憑空捏造虛假資訊? 不說已通過律師考,智商很高? 研究揭露真相大出意外。 另外,AI出現幻覺的問題有辦法根治嗎?...

    • ChatGPT會產生「幻覺」紐約大學(New York University)認知心理學家馬庫斯(Gary Marcus)等人再三警告,大型語言模型的根本缺陷就是時不時會產生幻覺。
    • ChatGPT存在偏見。許多人期待生成式AI不會出現有毒文本,但這得看「有毒」是什麼意思。如果要指避免生成一般多認為有害的血腥暴力與色情話語,ChatGPT設置的內容護欄和過濾器有些幫助,但如果是希望生成完全不帶偏見、歧視的價值中立文本則不可能。
    • ChatGPT尚未與人類價值對齊。為了降低AI快速發展可能帶來不可預期的風險,AI治理倡議者常提到AI要能夠與人類價值對齊才是安全的。OpenAI去年6月與英國牛津大學(University of Oxford)合作的論文中就提到,大型語言模型如能「誠實」面對知識的不確定性,在可信度不高的情況下直接拒絕回答、或是給出「不知道」的答案,這樣在模擬人類對於自然語言的運用時,不但更逼真、也有助減緩人工幻覺。
  4. ChatGPT出現幻覺的機率為3%,Google推出的生成式AI模型「PaLM」出現幻覺的機率則高達27%,是最常拋出虛假資訊的聊天機器人。 取自Unsplash. 據《紐約時報》報導,Vectara執行長阿瓦達拉(Amr Awadallah)曾擔任Google雲端副總裁,公司另一名創辦人則是自2017年便開始在Google進行AI相關研究的工程師艾哈邁德(Amin Ahmad),兩人此次組建團隊專門研究AI幻覺的目的是希望「推動業界加速著手減少生成式AI出現幻覺的機率」,同時提醒民眾在「接收AI產出的資訊時,必須時刻保持警惕」。 Vectara團隊為聊天機器人提供新聞報導文本,並要求聊天機器人簡單摘錄內容重點,怎料各個聊天機器人的回答當中仍舊夾雜著錯誤、且根本沒有出現在文本當中的訊息。

  5. 聊天機器人如ChatGPT基於大型語言模型,經過大量訓練,能夠自然地與使用者互動,但也可能產生「幻覺」—即將猜測呈現為事實。 專家警告,聊天機器人可能會在回答它們不知道問題時進行推斷和猜測,而不會明確告知使用者它們正在猜測。 一項由波士頓諮詢集團進行研究指出,如果使用者對ChatGPT的輸出「盲目接受而不對其進行錯誤篩查」,其工作表現可能會受到影響。 新聞內文: 專家說,聊天機器人本質上只一台機器,執行數學計算和統計分析,以找到正確詞語和句子。 像ChatGPT這樣機器人接受了大量文本訓練,這使它們能夠以自然方式與使用者互動。 人們也進行了大量培訓,幫助消除任何問題。

  6. 2022年12月8日 · ChatGPT為什麼爆紅?. 事實上,好用的聊天機器人並不是第一次出現,先前也有不少為人稱道的案例,像是倫敦政經學院教授夏普爾斯(Mike Sharples)就認為,早一版的GPT-3 transformer寫的作業,已經讓教師分不太出來作業是真人寫的,還是機器人寫的。. 廣告 ...

  7. 2023年5月12日 · ChatGPT 一直以來都有幻想問題 (hallucination),所謂的幻想問題,就是它會一本正經地說瞎話,用看似無誤的語氣,回覆錯誤的內容。 即使在最新的 GPT-4,這個問題已經減緩許多,但仍是存在的。 舉例來說. ChatGPT 煞有其事地說錯內容. 相信大家都知道,臺灣有八八風災、八七水災,但是並沒有七七風災這件事。 假如你去查 1998 年 7 月 2 日,台灣也不存在特別的歷史事件;而台灣歷史上雖然有凱撒琳颱風,但是發生在 1994 年而不是 1998 年。 但是 ChatGPT 的回答卻像煞有其事。 這就是所謂的幻想 (hallucination),ChatGPT 以假亂真似地回答。 這種幻想問題不僅存在於歷史事件,也存在於其他這類的回答。