雅虎香港 搜尋

搜尋結果

  1. 2024年2月1日 · Transformer的工作原理. Transformer的核心是自注意力機制,這一機制允許模型在生成輸出時評估序列內的所有單詞之間的相關性。 這意味著模型不需要按順序逐步處理資訊,而是可以平行處理,大大加快了學習速度。 此外,Transformer包含了多頭注意力(multi-head attention)機制,這使得模型能在多個子空間中同時學習資訊,增強了其學習能力和表達力。 自注意力機制. 想像一下,當你讀一句話時,你的大腦會同時關注這句話中的每個單詞,並理解每個單詞與其他單詞之間的關係。 自注意力機制也是如此。 它允許模型在處理一句話時,能同時考慮到句中所有單詞的信息,而不是一個接一個地處理。

  2. 2024年3月7日 · 一、資料清理. 二、如何切割文本. 三、如何搜尋. 四、LLM 生成品質. 快速掌握 LLM 應用全局觀. 有了「長上下文 LLM」(Long-Context LLM),還需要 RAG 嗎? RAG(Retrieval-Augmented Generation,檢索增強生成)無疑是當今開發大型語言模型(LLM)產品時,不可或缺的技術。 由於可以確保 LLM 生成的真實性,在企業 AI 應用與搜尋場景相當受到重視。 為此,我也試著實作一個簡單的 RAG 應用。 多年累積下來,我的 Apple Notes 已經有 7000 多則筆記,搜尋愈來愈不準確,常在寫新筆記時想參考舊筆記,卻怎麼也找不到。

  3. 我知道對於那些企業解雇的人來說,去重新學習新技能並找尋新的工作,真的不是一件容易事,不過如果我們可以保有對環境的適應力,以及快速學習新技能的能力,我們就仍然能在新經濟時代佔有一席之地。

  4. 其他人也問了

  5. 2024年1月29日 · 你問過自己為什麼要學程式嗎? 是想要有個帶得走的能力、想加值職能、想轉職、想賺更多錢? 或是你只是單純認為,現在的人不會程式好像怪怪的、大家都在學程式所以我也要學? 但是,知道自己為什麼要學程式,很重要嗎? 維元和 Jack 異口同聲地表示, 問「為什麼」是學習前最重要的一件事情。 只有知道學習的目標和理由,才會有有效的學習計畫和持續實踐的動力。 問為什麼,是做一件事最核心的課題,要越清楚越好。 若不清楚,你可能會把資源投到錯的地方。 輕則會有挫折感,重則造成對學習的傷害。

  6. 2023年8月8日 · 在金融業,會規範資料只能放在政府認可的平台,而很多資料更是不能「出國」,也就是說都只能存在本地的伺服器。 在醫療業,資料甚至不能離開那棟大樓或那台機器。

  7. 2023年6月4日 · 1. 設計、開發和實施生成式AI模型. 設計階段: 確定最佳算法來實現預期結果,要求對各種生成式AI算法及其優缺點有深入理解。 開發階段: 包括用現有數據訓練模型並進行微調以提升性能。 實施階段: 將AI模型整合到現有系統中或圍繞模型設計新系統,需要強大的軟件開發理解能力。 2. 調整現有生成式AI模型. 調整和精煉預先存在的模型以增強性能、適應新數據或滿足特定項目需求。 分析模型行為,識別表現不佳或產生意外結果的領域。 可能涉及調整超參數、修改模型架構或豐富訓練數據集。 3.

  8. 2024年2月20日 · 資料科學家發現與解決問題的四步驟: 溝通需求與目標. 拆解問題,不斷假設驗證. 建立模型. 模型迭代與優化. 以下分別說明各步驟內容。 步驟一:溝通需求與目標. 當別人提出需求時,很重要的一點是「先問他到底為什麼要做? 溝通很重要,如果不了解背後動機,時間花了做出來對方不滿意,那就是兩敗俱傷。 所以要先溝通需求,釐清原本的問題是什麼。 如果公司要做 Chatbot,有兩個可能性: 客服團隊成本太高,那麼 Chatbot 要解決的問題是降低成本. 客服團隊的客服品質不好,那麼 Chatbot 要解決的問題是能提升品質. 釐清需求後,要再了解對方的團隊是否有以前的資料可以用,如果沒有,就要從蒐集資料開始。 步驟二:拆解問題,不斷假設驗證. 確定有資料後,接下來開始分析,根據目標提出假設。