雅虎香港 搜尋

搜尋結果

  1. 2024年2月26日 · 在使用 ChatGPT、Gemini 等奠基於大型語言模型(Large Language Models,以下簡稱 LLMs)的人工智慧服務時,很常會遇到一個問題就是:請它們提供與特定專業領域相關的資訊,往往只能獲得極為空泛、甚至是充滿幻覺(hallucination)的回覆。. 1 隨著越來越多的 ...

  2. 2024年3月7日 · 一、資料清理. 二、如何切割文本. 三、如何搜尋. 四、LLM 生成品質. 快速掌握 LLM 應用全局觀. 有了「長上下文 LLM」(Long-Context LLM),還需要 RAG 嗎? RAG(Retrieval-Augmented Generation,檢索增強生成)無疑是當今開發大型語言模型(LLM)產品時,不可或缺的技術。 由於可以確保 LLM 生成的真實性,在企業 AI 應用與搜尋場景相當受到重視。 為此,我也試著實作一個簡單的 RAG 應用。 多年累積下來,我的 Apple Notes 已經有 7000 多則筆記,搜尋愈來愈不準確,常在寫新筆記時想參考舊筆記,卻怎麼也找不到。

    • Orid 是什麼?討論的思維框架
    • 選擇關注點:第一步就是最後一步
    • 關注你的位移
    • 為什麼要使用 A → B 結構?
    • 狀態負面時去休息;狀態正面時做 Reflection
    • 小結
    • Reference

    ORID 是為了主持討論,讓參與者聚焦的一種結構,和上述講的 reflection 並沒有歷史淵源,不過 reflection 是自己和自己對話,和別人對話很容易發散,和自己對話更容易發散,因此 ORID 用於 reflection 可謂十分稱手的框架。 ORID 是個在國際上被廣泛使用的焦點式提問法,透過四個層次的提問,能夠幫助使用者更結構性地思考與回應問題。以下為ORID的四層提問: 1. OBJECTIVE:具體的事實,做了哪些事情、看到與觀察哪些事情 2. REFLECTIVE:感受與反應,在當下直接的感受、反應與印象深刻的地方 3. INTERPRETIVE:事後詮釋與分析,試著解釋與分析事實與自己的感受 4. DECISIONAL:訂定目標與下一步,找出下一步可應用、執行與改善的...

    「回顧」的起手式,也就是 ORID 裡的 Objective,這一段的提問法門是「你看見什麼」或「發生了什麼事」。 我個人認為,回答這個問題是一個大學問,玄妙程度幾乎和打禪機差不多。 你的視角受限於你的狀態、你的目的,甚至你的格局。到底是你很有自覺地選擇了你的關注點,還是某件雞毛蒜皮的事情綁架了你的注意力? 在我剛開始嘗試建立 reflection 習慣時,我常常會選擇一些「自己做不好的事情」當成回顧主題,然後硬是用一種虛假的正面態度,寫出一套「愈挫愈勇」的發憤圖強文,結果是我從來沒有去踏實執行我在最後一步為自己設定的偉大 next step。 極高比例的人,在選擇關注點時,會關注自己做不好的事情,或者關注自己和別人的比較。偶爾關注一下自己的負面心態,進行「反省」是 OK 的,但不要太習慣如...

    為了避免自己的注意力被拉走,我建議大家在建立 reflection 習慣時,刻意選擇有「位移」的事情來關注,也就是任何在你身上發生,從 A 狀態變成 B 狀態的事情。 別忘了「學習」的目的就是讓自己成長,知道原本不知道的事,做到原本不會做的事,發生在自己身上的任何成長,只要有 A → B 的結構,都值得我們慶祝。 講 A → B 可能略顯空洞,下圖列出一些例子: 之前提過學習其實有 outside-in 和 inside-out 兩個方向的作用力,因此這裡建議把關注點區分成兩大類別,外在專業的位移,或者內在狀態的位移。看看當下對哪個方向有感覺都可以,只是略為注意一下比例平衡,向外或向內的 reflection 都應該要不定期發生。 至於細目我這邊舉出幾個例子,只是示意給你看,一開始的時候可以...

    刻意選擇 Growth mindset 視角

    使用 A → B 結構來收斂你的關注點,第一個實用目的是防守自己的注意力被一些偏向 fixed mindset 的焦點拉走,起手式一開始就要落在 growth mindset 的範疇,這樣才會有效。

    培養你的後設認知

    另外,從「學習如何學習」的角度,你其實需要刻意去研究新態度、新觀念、新行為到底是怎麼在你自己身上發芽的。 說到底,只有自己親自掌握自己的學習模式,你的學習成效才會迎來飛躍式的進展。雖然你的學習教練/老師可能擁有比你更高的專業度去診斷學習問題,但教練/老師只能與你共享某一小段的時光,最終你需要成為你自己的教練。 因此,能夠倒退一步,把發生在自己身上的學習旅程當成客體來觀察,其實是蠻重要的技能。 而刻意關注 A → B 如何發生在自己身上,會讓你可以持續地累積對自己學習模式的洞察。

    不要浪費有效經驗

    最後最實在的一點,是前文提到,「做中學」為什麼強調 reflection,因為做中學裡面有太多的 try-and-error,有時候你的結果根本是誤打誤撞試出來的。 這些靠運氣、靠嘗試逼出來的「結果」(也就是 A → B 結構中的 B 狀態),如果沒有徹底掌握「究竟是怎麼發生的」,你可能根本就不再有第二次重現結果的機會。 你必須順藤摸瓜,從 B 狀態倒推回去,像偵探一樣往 A 方向探索,找出過程中的驅動要素,好好把事情發生經過描述清楚,然後辨證自己是否能重現這些有效的驅動要素。如此一來這個專業技能才是真正掌握到你的手裡。 不關注結果怎麼跑出來的,卻跑去關注別人的結果比自己好,這不是徹底的浪費嗎?

    會建議大家刻意運用 A → B 結構來收斂關注點,很大的原因是,我們見證到太多的學習者努力地做 reflection,以為這就是「認真」,但事實上他們的關注點卻被 fixed mindset 拉走。 我覺得 A → B 是一個蠻簡單的訣竅,可以快速抓出有助於把你扳回 growth mindset 的方向。 事實上,要防止 fixed mindset 跑出來,還有一個是做 reflection 的時機。我建議大家要養成在「狀態好的時候做 reflection」的習慣,如果你今天完成了一個挑戰很有成效感,或者你今天忽然有個澎湃覺得自己堅持好久好偉大,或者你今天得到了一個稱讚覺得飄飄然,這是你做 reflection 的最佳時機,這個時候最容易抓到 A → B 結構。 練習在這種時候做 refle...

    這篇文章介紹的是在做 reflection 的起手式,選擇關注點的「入門訣竅」。 在持續練習一段時間之後,你會開始對 growth mindset 的狀態有更高的自覺,到了那個階段以後,你可以自由選擇任何為你帶來成長的經驗進行 reflection。

  3. 其他人也問了

  4. 2024年4月3日 · 此外,GitHub 推出了針對Pull Requests的Copilot技術預覽,利用OpenAI的新GPT-4模型自動生成Pull Requests的描述,並支持AI驅動的標籤。. Copilot還將自動警告開發者對於Pull Request的測試覆蓋率不足,並建議潛在的測試方案。. GitHub Copilot for Docs:文檔查詢的AI助手 ...

  5. 2024年2月1日 · Transformer的工作原理. Transformer的核心是自注意力機制,這一機制允許模型在生成輸出時評估序列內的所有單詞之間的相關性。. 這意味著模型不需要按順序逐步處理資訊,而是可以平行處理,大大加快了學習速度。. 此外,Transformer包含了多頭注意力(multi ...

  6. 2023年2月7日 · 通過上述詳盡的分析步驟、框架與方法,企業可以對競品有一個全面而深入的了解。. 競品分析不僅是評估對手,更是自我反思與學習的過程,幫助企業發現自身的不足,激發創新的靈感,最終在市場競爭中占得先機。. 目前,AC 有兩堂數據分析課程 ...

  7. 2023年11月28日 · scikit-learn支持多種機器學習算法,包括支持向量機、決策樹、K近鄰法和隨機森林等。. 隨著人工智慧的領域持續在進化,也會有越來越複雜的AI應用背後使用著機器學習和深度學習來優化各個行業的方方面面,在未來不會有哪個行業是AI行業,而是每個 ...

  1. 其他人也搜尋了