雅虎香港 搜尋

  1. tesla model y 相關

    廣告
  2. A New Age of Mobility. Join Us On The Journey to A Sustainable and Inspiring Future! Delve into the world of Mercedes-Benz EQ models and experience the future with us today.

搜尋結果

  1. 2024年1月17日 · AI 人工智慧. AI 學習筆記:看 OpenAI、Tesla 人工智慧專家深入淺出 LLMs 技術的概念與趨勢. 發佈日期: 2024 年 1 月 17 日 作者: Matt Yu. 內容目錄. 熱愛傳播知識的人工智慧專家 Andrej Karpathy. 什麼是 LLMs? 要怎麼訓練出 LLMs? 快速掌握 LLM 應用全局觀. LLMs 的未來(一):會使用工具的 LLMs、不只能理解文字的 LLMs. LLMs 的未來(二):客製化的 GPT 及以 LLMs 為核心的作業系統. LLMs 的未來(三):能夠擁有深度思考能力的思路樹的 LLMs. LLMs 的資安風險:提示詞越獄、注入、資料污染: OpenAI 的 ChatGPT 才推出一年左右,已成為許多人日常生活不可或缺的一環。

  2. 2024年2月1日 · Transformer模型概述. Transformer模型是基於自注意力機制(self-attention mechanism)的一種架構,它能夠在處理序列數據時,同時考慮序列中的所有元素,這種全局視角使得Transformer在多個領域特別有效。 與傳統的遞歸神經網路(RNN)或卷積神經網路(CNN)相比,Transformer顯著提高了處理速度和效率,尤其是在處理長序列數據時。 Transformer的工作原理. Transformer的核心是自注意力機制,這一機制允許模型在生成輸出時評估序列內的所有單詞之間的相關性。 這意味著模型不需要按順序逐步處理資訊,而是可以平行處理,大大加快了學習速度。

  3. 2024年1月17日 · OpenAI 創辦團隊成員之一、前 Tesla 人工智慧的資深總監 Andrej Karpathy 在 2023 年 11 月發表了一支一小時的影片〈Intro to Large Language Models〉(大型語言模型簡介),很快就累積超過百萬收看次數,這支影片主要可分為三個部分:第一段先介紹 LLMs

    • 在開始之前
    • Na Value
    • Duplicate Records
    • Data Leakage
    • 總結

    誰適合讀這篇文章?

    1. 已對 Machine Learning 理論有一定基礎、且實際用公開資料集建過幾個模型,但尚未處理過任何企業 raw data。 2. 具 Kaggle 實戰經驗,但準備要用公司亂糟糟、沒有整理過的資料來建模的新鮮人

    為什麼會有這篇文章?

    這些都是過去我親身踩過的雷,這些也是在大學或線上課程中,比較少會在課程上被強調的部分。希望藉由整理出這些經驗,能讓即將要踏入資料科學/機器學習領域的夥伴作為借鑒,讓大家能夠少走一些冤枉路。

    機器學習流程

    ‍ 在正式開始之前,我們來複習一下機器學習的流程。我認為上面這張圖很好的解釋了工作上常見的場景,每個步驟都會影響到下個階段,它們是環環相扣的。大致上分成五個階段: 1. Data Retrieval 包含資料從哪裡來、如何取得資料,依照公司性質而不同。例如在甲方(客戶端),可能由資料工程團隊提供,或是自己直接撈資料庫;在乙方(廠商端)則通常由客戶提供。在 Kaggle 就是已經預先完成 Data Retrieval 的部分。 1. Data Preparation Data Processing & Wrangling:這個階段會將來自不同資料表的原始資料進行 merge & join 的動作。 Feature Extraction & Feature Engineering:將原始資料轉換成可以餵給模型的格式,萃取出有意義的特徵。今天要介紹的 NA Value 就是發生在這個階段 Feature Scaling & Selection:調整各個特徵之間的尺度,以及挑選有用的特徵。對於某些特定演算法來說,如果特徵的尺度差異太大,會影響演算法的結果。例如A欄位是1-100而B欄位是...

    相信如果是有建過模型的你,應該對NA值這個名詞不陌生。如果是打 Kaggle 比賽出身的話,可能會比較少遇到一些,因為在 Kaggle 上大部分都是整理得很好的資料集。不過我相信會來讀這篇文章的你,應該都對這個名詞不陌生。

    接下來要講的 Duplicate Rows ,其實嚴格上來說不算在 Machine Learning 內,跟建模沒有直接關係,比較算在資料預處理的範疇內,甚至這個名詞也是我自己定義的。但如果忽略它,它可能會讓我們在做探索性分析(EDA)或特徵工程時得到錯誤的結果。一起來看看吧。

    接下來要談的 Data Leakage 就跟模型本身很有關係了,同時也是本篇文章中屬於影響程度較大的。Data Leakage 不像前面介紹的兩項有明確的定義,比較像是一種現象,因此它稍微比較抽象一點。 Data Leakage 的定義是「倒果為因」,是指訓練集裡包含了預測目標的資訊。以白話文來說,就是模型透過某些欄位看到答案了,而使得準確率變得非常高、或者 MSE 極低。 甚麼意思呢?我們來看看以下例子:

    以上就是我認為在建模過程中最容易犯的三個錯誤,以及在錯誤中學到的經驗。如果要從中選一個我認為影響最大的,我一定會選 Data Leakage,但是我在學習理論的過程中完全沒有接觸過相關的資料,直到我實際工作了才發現,讓模型看到答案這件事實在很容易發生,所以本篇也花了比較多的篇幅在 Data Leakage 的部分上。希望透過這三點分享,能作為各位的墊腳石,一起建立品質更好、更 robust 的模型。

  4. 2024年4月17日 · 我們曾經推薦過 AI 主題的電子報,也介紹過 20 個關於生成式 AI 的關鍵字,對於習慣以收看影片來吸收資訊的讀者,我們在本文精選了四個 YouTube 頻道,並且分享為英文影片加上中文字幕的方法。

  5. 2024年2月26日 · 在我前一篇分享 OpenAI 研究員 Andrej Karpathy 介紹 LLMs 的文章曾介紹到,通常 LLMs 的訓練會經過兩個階段:產出基本模型(base model)、曠日廢時且需要投入大量資源的「預訓練」階段,以及後續頻繁進行的「模型微調(fine-tuning)」階段。

  6. AI 學習筆記:看 OpenAI、Tesla 人工智慧專家深入淺出 LLMs 技術的概念與趨勢. 本文是一篇學習筆記,作者整理了 OpenAI 人工智慧專家 Andrej Karpathy 近期一支影片〈Intro to Large Language Models〉的內容,深入淺出談 LLMs 技術的概念與趨勢。. 其他 / 新創觀察. 《RISE-UP 科技 ...

  1. 其他人也搜尋了