雅虎香港 搜尋

  1. 鍾柔美 相關

    廣告
  2. 柔美精品商旅優惠盡在Agoda,查看過百萬心水商旅真實評價! 立即預訂可慳更多,Agoda®一直保證最低價!

    • 高雄

      超值酒店,神秘優惠

      先訂後付,節省更多!

    • 折扣優惠

      計劃緊下次旅程?

      我們為你提供最抵優惠!

搜尋結果

  1. 2024年2月26日 · 1 隨著越來越多的企業和組織期許能夠將 LLMs 應用到生活以及工作的各個領域,如何產生客製化的 LLMs 便成為人們關注的焦點,而名為「檢索增強生成」 (Retrieval-Augmented Generation,縮寫為 RAG)就是值得我們重視的其中一項技術。 本文將介紹 RAG 的運作方式、哪些使用情境適合導入 RAG? 以及為什麼 NVIDIA、Microsoft 等軟硬體科技巨頭都爭相投入這個領域。 (編按:想要進一步知道 RAG 實作與產品化要考量的面向,可以閱讀這篇 〈為我的筆記加上 AI:RAG 實作經驗分享與四大產品化挑戰〉 。 什麼是 RAG? 跟模型微調有什麼差別?

  2. 2024年3月7日 · 一、資料清理. 二、如何切割文本. 三、如何搜尋. 四、LLM 生成品質. 快速掌握 LLM 應用全局觀. 有了「長上下文 LLM」(Long-Context LLM),還需要 RAG 嗎? RAG(Retrieval-Augmented Generation,檢索增強生成)無疑是當今開發大型語言模型(LLM)產品時,不可或缺的技術。 由於可以確保 LLM 生成的真實性,在企業 AI 應用與搜尋場景相當受到重視。 為此,我也試著實作一個簡單的 RAG 應用。 多年累積下來,我的 Apple Notes 已經有 7000 多則筆記,搜尋愈來愈不準確,常在寫新筆記時想參考舊筆記,卻怎麼也找不到。

  3. 2024年1月29日 · 你為什麼學程式? 問為什麼超重要! 如何知道學會了? 用用看就知道! 沒經驗如何證明有能力? 從作品集和部落格開始. 怎麼學完? 其實持續學更重要! 如何持續學? 拆解目標、階段完成、要開心. 一直撞牆怎麼辦? 用成長心態面對. 為什麼要找人一起學? 因為能幫自己突破盲點. 免費點我下載數據技能路線指南. 自學程式正夯,但你一定也遇過這些問題:怎麼知道學會了? 學了真的就可以找到工作嗎? 怎麼持續學? 一直撞牆怎麼辦? 這次職涯相談室請來兩位教學經驗豐富的程式開發前輩 Jack 和維元,帶大家從「自學程式的 7 個 FAQ」,來一一破解你的迷思和誤區,幫你修成正果。 你 為什麼學程式? 問為什麼超重要! 你問過自己為什麼要學程式嗎? 是想要有個帶得走的能力、想加值職能、想轉職、想賺更多錢?

  4. 2024年2月1日 · Transformer模型概述. Transformer的工作原理. Transformer在自然語言處理中的應用. 對AI發展的影響. 在人工智慧領域,Transformer模型自2017年由Google的研究者介紹以來,已成為最具影響力的創新之一。 它不僅改變了自然語言處理(NLP)的面貌,還對整個AI技術的發展產生了重大影響。 本文將深入探討Transformer的基本原理、結構特點以及它如何推動AI技術的突破。 Transformer模型概述. Transformer模型是基於自注意力機制(self-attention mechanism)的一種架構,它能夠在處理序列數據時,同時考慮序列中的所有元素,這種全局視角使得Transformer在多個領域特別有效。

    • Orid 是什麼?討論的思維框架
    • 選擇關注點:第一步就是最後一步
    • 關注你的位移
    • 為什麼要使用 A → B 結構?
    • 狀態負面時去休息;狀態正面時做 Reflection
    • 小結
    • Reference

    ORID 是為了主持討論,讓參與者聚焦的一種結構,和上述講的 reflection 並沒有歷史淵源,不過 reflection 是自己和自己對話,和別人對話很容易發散,和自己對話更容易發散,因此 ORID 用於 reflection 可謂十分稱手的框架。 ORID 是個在國際上被廣泛使用的焦點式提問法,透過四個層次的提問,能夠幫助使用者更結構性地思考與回應問題。以下為ORID的四層提問: 1. OBJECTIVE:具體的事實,做了哪些事情、看到與觀察哪些事情 2. REFLECTIVE:感受與反應,在當下直接的感受、反應與印象深刻的地方 3. INTERPRETIVE:事後詮釋與分析,試著解釋與分析事實與自己的感受 4. DECISIONAL:訂定目標與下一步,找出下一步可應用、執行與改善的...

    「回顧」的起手式,也就是 ORID 裡的 Objective,這一段的提問法門是「你看見什麼」或「發生了什麼事」。 我個人認為,回答這個問題是一個大學問,玄妙程度幾乎和打禪機差不多。 你的視角受限於你的狀態、你的目的,甚至你的格局。到底是你很有自覺地選擇了你的關注點,還是某件雞毛蒜皮的事情綁架了你的注意力? 在我剛開始嘗試建立 reflection 習慣時,我常常會選擇一些「自己做不好的事情」當成回顧主題,然後硬是用一種虛假的正面態度,寫出一套「愈挫愈勇」的發憤圖強文,結果是我從來沒有去踏實執行我在最後一步為自己設定的偉大 next step。 極高比例的人,在選擇關注點時,會關注自己做不好的事情,或者關注自己和別人的比較。偶爾關注一下自己的負面心態,進行「反省」是 OK 的,但不要太習慣如...

    為了避免自己的注意力被拉走,我建議大家在建立 reflection 習慣時,刻意選擇有「位移」的事情來關注,也就是任何在你身上發生,從 A 狀態變成 B 狀態的事情。 別忘了「學習」的目的就是讓自己成長,知道原本不知道的事,做到原本不會做的事,發生在自己身上的任何成長,只要有 A → B 的結構,都值得我們慶祝。 講 A → B 可能略顯空洞,下圖列出一些例子: 之前提過學習其實有 outside-in 和 inside-out 兩個方向的作用力,因此這裡建議把關注點區分成兩大類別,外在專業的位移,或者內在狀態的位移。看看當下對哪個方向有感覺都可以,只是略為注意一下比例平衡,向外或向內的 reflection 都應該要不定期發生。 至於細目我這邊舉出幾個例子,只是示意給你看,一開始的時候可以...

    刻意選擇 Growth mindset 視角

    使用 A → B 結構來收斂你的關注點,第一個實用目的是防守自己的注意力被一些偏向 fixed mindset 的焦點拉走,起手式一開始就要落在 growth mindset 的範疇,這樣才會有效。

    培養你的後設認知

    另外,從「學習如何學習」的角度,你其實需要刻意去研究新態度、新觀念、新行為到底是怎麼在你自己身上發芽的。 說到底,只有自己親自掌握自己的學習模式,你的學習成效才會迎來飛躍式的進展。雖然你的學習教練/老師可能擁有比你更高的專業度去診斷學習問題,但教練/老師只能與你共享某一小段的時光,最終你需要成為你自己的教練。 因此,能夠倒退一步,把發生在自己身上的學習旅程當成客體來觀察,其實是蠻重要的技能。 而刻意關注 A → B 如何發生在自己身上,會讓你可以持續地累積對自己學習模式的洞察。

    不要浪費有效經驗

    最後最實在的一點,是前文提到,「做中學」為什麼強調 reflection,因為做中學裡面有太多的 try-and-error,有時候你的結果根本是誤打誤撞試出來的。 這些靠運氣、靠嘗試逼出來的「結果」(也就是 A → B 結構中的 B 狀態),如果沒有徹底掌握「究竟是怎麼發生的」,你可能根本就不再有第二次重現結果的機會。 你必須順藤摸瓜,從 B 狀態倒推回去,像偵探一樣往 A 方向探索,找出過程中的驅動要素,好好把事情發生經過描述清楚,然後辨證自己是否能重現這些有效的驅動要素。如此一來這個專業技能才是真正掌握到你的手裡。 不關注結果怎麼跑出來的,卻跑去關注別人的結果比自己好,這不是徹底的浪費嗎?

    會建議大家刻意運用 A → B 結構來收斂關注點,很大的原因是,我們見證到太多的學習者努力地做 reflection,以為這就是「認真」,但事實上他們的關注點卻被 fixed mindset 拉走。 我覺得 A → B 是一個蠻簡單的訣竅,可以快速抓出有助於把你扳回 growth mindset 的方向。 事實上,要防止 fixed mindset 跑出來,還有一個是做 reflection 的時機。我建議大家要養成在「狀態好的時候做 reflection」的習慣,如果你今天完成了一個挑戰很有成效感,或者你今天忽然有個澎湃覺得自己堅持好久好偉大,或者你今天得到了一個稱讚覺得飄飄然,這是你做 reflection 的最佳時機,這個時候最容易抓到 A → B 結構。 練習在這種時候做 refle...

    這篇文章介紹的是在做 reflection 的起手式,選擇關注點的「入門訣竅」。 在持續練習一段時間之後,你會開始對 growth mindset 的狀態有更高的自覺,到了那個階段以後,你可以自由選擇任何為你帶來成長的經驗進行 reflection。

  5. 2023年10月22日 · TensorFlow. Keras. PyTorch、TensorFlow和Keras比較. 當探討如何在深度學習項目中選擇合適的框架時,PyTorch、TensorFlow和Keras是目前市場上三個最受歡迎的選擇。 每個框架都有其獨特的優點和適用場景,了解它們的關鍵特性和差異對於做出最佳選擇至關重要。 PyTorch是由Facebook的AI研究團隊開發,於2016年推出。 它以其動態計算圖聞名,為研究人員提供了高度的靈活性和直觀性,使得模型的構建和調試更加方便。 PyTorch支持即時調試,且其Python式的設計理念使得開發者能夠輕鬆上手。 此外,PyTorch在學術界十分流行,許多最新的研究成果都是使用PyTorch實現的.

  6. 2023年11月8日 · LangChain特點. 易於使用 :LangChain提供了一系列API,讓開發者可以快速啟動和運行LLM,而無需深入了解模型的內部運作機制。 高度靈活 :透過配置和擴展機制,開發者可以根據需要自定義LangChain的行為,使其適應不同的應用場景。 生態系統整合 :LangChain旨在與現有的AI工具和框架無縫集成,支持多種LLM和第三方服務,從而促進生態系統的互操作性。 LangChain的應用場景. 自動文本生成 :利用LLM生成文章、報告或其他文本內容。 智能問答系統 :構建基於LLM的問答系統,提供精確的答案和解釋。 語言理解和分析 :使用LLM進行語言分析,從文本中提取有用的見解和信息。 個性化推薦 :根據用戶的互動和偏好,利用LLM生成個性化的內容和推薦。

  1. 其他人也搜尋了