雅虎香港 搜尋

搜尋結果

  1. 5 天前 · 分享本文. 歐洲理事會於當地時間星期二,正式批准了全球首部 AI 監管法規《人工智慧法案》,為將來的 AI 技術發展制定了全面性的規則,同時 AI 系統未來也會被分為 4 類,讓歐盟可以針對 AI 所造成的不同風險,採取相應的監管策略。 根據報導,《人工智慧法案》將在歐盟官方公報上公佈 20 天後正式生效,而法案內容將會分階段適用。 具體來說,法案中規定「禁止」的項目,將於生效 6 個月後適用;對於通用型人工智慧(GPAI)的相關義務和規則,則是生效 12 個月後適用;而法案生效的 24 個月後將完全執行立法條文,但部分高風險 AI 系統的規則會延長至 36 個月後才生效。

  2. 2024年5月14日 · 2024-05-14. 分享本文. 踏入人工智慧時代,新技術對於社會與人民的威脅隱憂成為各國關注的新焦點。 歐盟在 2024 年 3月 13 日正式通過《人工智慧法案》(Artificial Intelligence Act)(以下簡稱歐盟 AI 法案),這也是全球首部人工智慧法案,預計為仍在研擬相關法案的各國訂下監管新範本。 歐盟 AI 法案是採取風險管理導向的法案,目的為在歐盟單一市場整合的前提下,促進 AI 發展與創新,並且能有效面對風險以保護人民與社會民主。 此法預計於 2024 年第二季至第三季生效,其中各項目的監管過渡期短則 6 個月,長則 2 年。 先認識歐盟 AI 法案的「四大風險」層級.

  3. 5 天前 · 2024-05-22. 分享本文. 由英國和南韓共同舉辦的 AI 安全峰會本週二(21日)於首爾召開。 來自各國的領袖與科技公司高管承諾實施基本的 AI 安全措施,並強調國際合作在 AI 安全研究中的重要性。 英國政府宣布了一項新協議,包括 10 個國家和歐盟在內,將建立類似於英國 AI 安全研究所的全球網路,促進 AI 安全的共同理解和標準化。 在峰會的首日,全球領袖和代表性的 AI 公司參加了一場由英國首相蘇納克(Rishi Sunak)和南韓總統尹錫悅主持的線上會議,討論 AI 安全、創新和包容性。 參與者一致同意《首爾宣言》,強調在建設 AI 時增強國際合作,應對全球重大問題,維護人權,並縮小數位鴻溝,同時強調以人為本、可信和負責的原則。

  4. 2024年5月14日 · 分享本文. 全球政府加速擁抱 AI 轉型,強化 AI 國力成為國家發展的頭等大事。 不過,政府除了制定法規、了解技術影響之外,還需要哪些必要條件才能真正讓國家 AI 轉型? 根據 WEF 世界經濟論壇的定義,最重要的就是要發展國家的主權 AI (Soverign AI) 能力與意識,也就是 策略性使用 AI 來增強國家的 AI 基礎設施、數據、技術能力與產業人才競爭力 ,確保國家利益不受侵害。 發展「主權 AI」極其重要! 印度、日本怎麼做? 過往政府的公共建設只限於那些看得到的硬體建設、運輸網路等等,但慢慢地各國也發現在全球地緣政治影響下,經濟、文化這樣的「軟實力」也會讓國家在國際舞台上更能掌握話語權。

  5. 2024年5月16日 · 本集《全新一週》因應準總統賴清德與準行政院長卓榮泰籌組的 「行動創新 AI 內閣」即將於 5/20 正式上任,特別邀請 Google 前台灣董事總經理簡立峰,從「AI 數位政府」的角度出發,解析政府的 AI 因應策略。 根據英國新聞媒體《Tortoise Media》公布的 2023 年「全球 AI 指數」評比,台灣排名第 26,以色列、新加坡、南韓的評比皆高於台灣。 簡立峰分析,這三個國家過去十多年也位居世界新創國家排名的前段班,而「我們(台灣)的創新是被動式創新,不是主動式創新。 」簡立峰直言,台灣屬於老創,將老企業分拆(spin off),所以幾乎不被列舉在新創當中,而台灣素人創新、素人創業在全世界嚴重偏弱。 以色列為何新創做得好?

  6. 2024年5月20日 · 2024-05-20. 分享本文. 貝萊德(BlackRock)執行長勞倫斯·芬克近日表示,公司正在與多國政府洽談,資助支持人工智慧(AI)的關鍵投資,包括增加電力供應。 AI 被視為提升全球生產力的重要推動力,但需要大量電力來運行資訊處理中心和半導體工廠。 芬克在G7會議上指出,G7國家電力不足,這將成為各國發展 AI 的挑戰。 資訊處理中心可能建在電力供應便宜的地區,這增加了在高成本地區提供國家補貼的需求。 貝萊德估計,建設支持 AI 的資訊處理中心和晶片工廠需要數兆美元,這對私人投資者、退休基金和保險公司來說可能是大好的機會。 AI 技術需要大量電力來運行資訊處理中心和半導體工廠, 然而,台灣現有的電力供應能否滿足這些需求是關鍵問題。 政府需要積極投資並提升電力基礎設施,確保供電穩定。

  7. 2024年5月20日 · 2024-05-20. 分享本文. OpenAI 的 Superalignment 團隊專門致力於研究如何管理和操控「超智能」AI系統 ( superintelligent AI systems)。 根據該團隊成員的說法,該團隊被承諾獲得公司 20% 的計算資源,但實際上,許多資源請求經常被拒,阻礙了他們的工作。 這個問題以及其他原因,導致本週多名成員辭職,包括共同領導人 Jan Leike 。 Leike 曾是DeepMind 的研究員,在 OpenAI 參與了 ChatGPT、GPT-4 和 InstructGPT 的開發。 Leike 在週五早上 (5/17) 公開了他辭職的部分原因。

  1. 其他人也搜尋了