雅虎香港 搜尋

搜尋結果

  1. Youchi 把握公司內部內轉的機會,成為了大中華區消費者洞察智庫總監,又在 BCG 待了五年多。 在這一段職涯階段中,youchi 學會了接受自己從在前線衝鋒陷陣,成為了一個支援團隊成員的角色,雖然這個轉變並非如此容易。

  2. 2024年2月26日 · 1 隨著越來越多的企業和組織期許能夠將 LLMs 應用到生活以及工作的各個領域,如何產生客製化的 LLMs 便成為人們關注的焦點,而名為「檢索增強生成」 (Retrieval-Augmented Generation,縮寫為 RAG)就是值得我們重視的其中一項技術。 本文將介紹 RAG 的運作方式、哪些使用情境適合導入 RAG? 以及為什麼 NVIDIA、Microsoft 等軟硬體科技巨頭都爭相投入這個領域。 (編按:想要進一步知道 RAG 實作與產品化要考量的面向,可以閱讀這篇 〈為我的筆記加上 AI:RAG 實作經驗分享與四大產品化挑戰〉 。 什麼是 RAG? 跟模型微調有什麼差別?

  3. 2024年2月1日 · 第1步:安裝Python和Git. 首先,您需要安裝Python 3.10.6,這是運行Stable Diffusion所必需的。 您可以從 Python官方網站 下載安裝。 若安裝過程中遇到困難,可以參考我們的 Python安裝教程 。 在命令提示符中輸入 python 並執行,以確認Python版本正確安裝。 若未顯示Python 3.10.6,請卸載電腦中的其他Python版本。 接著,安裝Git,這是一個代碼庫管理系統,用於版本控制和協作。 您可以通過 Git安裝教程 進行安裝,並可參考我們的 Git入門課程 以深入了解Git。 第2步:創建GitHub和Hugging Face帳戶. GitHub是一個代碼托管服務,用於軟件開發的版本控制和協作。

  4. 2024年3月7日 · 一、資料清理. 二、如何切割文本. 三、如何搜尋. 四、LLM 生成品質. 快速掌握 LLM 應用全局觀. 有了「長上下文 LLM」(Long-Context LLM),還需要 RAG 嗎? RAG(Retrieval-Augmented Generation,檢索增強生成)無疑是當今開發大型語言模型(LLM)產品時,不可或缺的技術。 由於可以確保 LLM 生成的真實性,在企業 AI 應用與搜尋場景相當受到重視。 為此,我也試著實作一個簡單的 RAG 應用。 多年累積下來,我的 Apple Notes 已經有 7000 多則筆記,搜尋愈來愈不準確,常在寫新筆記時想參考舊筆記,卻怎麼也找不到。

  5. 2023年11月8日 · LangChain的特點. 易於使用 :LangChain提供了一系列API,讓開發者可以快速啟動和運行LLM,而無需深入了解模型的內部運作機制。 高度靈活 :透過配置和擴展機制,開發者可以根據需要自定義LangChain的行為,使其適應不同的應用場景。 生態系統整合 :LangChain旨在與現有的AI工具和框架無縫集成,支持多種LLM和第三方服務,從而促進生態系統的互操作性。 LangChain的應用場景. 自動文本生成 :利用LLM生成文章、報告或其他文本內容。 智能問答系統 :構建基於LLM的問答系統,提供精確的答案和解釋。 語言理解和分析 :使用LLM進行語言分析,從文本中提取有用的見解和信息。 個性化推薦 :根據用戶的互動和偏好,利用LLM生成個性化的內容和推薦。

  6. 2024年1月30日 · AI工具大全:2024好用的AI工具推薦. 2024 年 1 月 30 日 作者: ALPHA Camp. 知識管理工具和AI基礎工具. 會議紀錄助手. 時間管理工具. 電子郵件管理工具. 簡報創作工具. 自動化工具. 免費點我下載數據技能路線指南. 在2024年,AI工具的發展已經達到新的高度,從提高個人生產力到企業操作效率的各個方面,AI工具都扮演著不可或缺的角色。 無論是進行語言交流、內容創作、或是任務管理,都有相應的AI工具可以幫助我們更加輕鬆地完成工作。 以下是今年度好用的AI工具推薦,希望能幫助您在信息海洋中快速找到適合自己的工具。 聊天機器人. ChatGPT :這是一個由OpenAI設計的人工智慧語言模型,可以提供自然且流暢的文本對話。

  7. 2024年2月1日 · Transformer模型概述. Transformer的工作原理. Transformer在自然語言處理中的應用. 對AI發展的影響. 在人工智慧領域,Transformer模型自2017年由Google的研究者介紹以來,已成為最具影響力的創新之一。 它不僅改變了自然語言處理(NLP)的面貌,還對整個AI技術的發展產生了重大影響。 本文將深入探討Transformer的基本原理、結構特點以及它如何推動AI技術的突破。 Transformer模型概述. Transformer模型是基於自注意力機制(self-attention mechanism)的一種架構,它能夠在處理序列數據時,同時考慮序列中的所有元素,這種全局視角使得Transformer在多個領域特別有效。

  1. 其他人也搜尋了