雅虎香港 搜尋

搜尋結果

  1. 2024年1月17日 · AI 人工智慧. AI 學習筆記:看 OpenAI、Tesla 人工智慧專家深入淺出 LLMs 技術的概念與趨勢. 發佈日期: 2024 年 1 月 17 日 作者: Matt Yu. 內容目錄. 熱愛傳播知識的人工智慧專家 Andrej Karpathy. 什麼是 LLMs? 要怎麼訓練出 LLMs? 快速掌握 LLM 應用全局觀. LLMs 的未來(一):會使用工具的 LLMs、不只能理解文字的 LLMs. LLMs 的未來(二):客製化的 GPT 及以 LLMs 為核心的作業系統. LLMs 的未來(三):能夠擁有深度思考能力的思路樹的 LLMs. LLMs 的資安風險:提示詞越獄、注入、資料污染: OpenAI 的 ChatGPT 才推出一年左右,已成為許多人日常生活不可或缺的一環。

  2. 2024年2月1日 · Transformer模型概述. Transformer模型是基於自注意力機制(self-attention mechanism)的一種架構,它能夠在處理序列數據時,同時考慮序列中的所有元素,這種全局視角使得Transformer在多個領域特別有效。 與傳統的遞歸神經網路(RNN)或卷積神經網路(CNN)相比,Transformer顯著提高了處理速度和效率,尤其是在處理長序列數據時。 Transformer的工作原理. Transformer的核心是自注意力機制,這一機制允許模型在生成輸出時評估序列內的所有單詞之間的相關性。 這意味著模型不需要按順序逐步處理資訊,而是可以平行處理,大大加快了學習速度。

  3. 2024年1月17日 · OpenAI 創辦團隊成員之一、前 Tesla 人工智慧的資深總監 Andrej Karpathy 在 2023 年 11 月發表了一支一小時的影片〈Intro to Large Language Models〉(大型語言模型簡介),很快就累積超過百萬收看次數,這支影片主要可分為三個部分:第一段先介紹 LLMs

  4. 2023年7月5日 · 這篇文章會分享身為資料科學家,實際上在 Modeling 時容易犯的三個錯誤:NA Value、Duplicate Record、Data Leakage,這些小細節會如何影響模型及實際工作場景,以及如何避免上述狀況發生。.

  5. 2024年4月17日 · 我們曾經推薦過 AI 主題的電子報,也介紹過 20 個關於生成式 AI 的關鍵字,對於習慣以收看影片來吸收資訊的讀者,我們在本文精選了四個 YouTube 頻道,並且分享為英文影片加上中文字幕的方法。

  6. 2024年2月26日 · 在我前一篇分享 OpenAI 研究員 Andrej Karpathy 介紹 LLMs 的文章曾介紹到,通常 LLMs 的訓練會經過兩個階段:產出基本模型(base model)、曠日廢時且需要投入大量資源的「預訓練」階段,以及後續頻繁進行的「模型微調(fine-tuning)」階段。

  7. AI 學習筆記:看 OpenAI、Tesla 人工智慧專家深入淺出 LLMs 技術的概念與趨勢. 本文是一篇學習筆記,作者整理了 OpenAI 人工智慧專家 Andrej Karpathy 近期一支影片〈Intro to Large Language Models〉的內容,深入淺出談 LLMs 技術的概念與趨勢。. 其他 / 新創觀察. 《RISE-UP 科技 ...

  1. 其他人也搜尋了