雅虎香港 搜尋

搜尋結果

  1. 2024年4月16日 · 项目描述: generative-ai-for-beginners是由Microsoft提供的生成式人工 智能课程。该课程旨在帮助初学者理解和掌握生成式人工智能的基础概念和技术。通过实用的教程和示例,学习者可以逐步探索生成式人工智能的世界,为未来深入学习打下坚实基础 ...

  2. 2024年4月11日 · 【新智元导读】用大模型来辅助强化学习,可以提高模型在多任务学习、样本利用率、任务规划等复杂任务下的能力,该论文综述了LLM-enhanced RL领域的最新进展,总结了LLM-enhanced RL的主要技术框架、特性以及四种主要技术路线;并分析了未来该方向的机会与挑战。 强化学习(RL)通过与环境交互的试错反馈来优化顺序决策问题。 虽然RL在允许大量试错的复杂电子游戏环境中实现了超越人类的决策能力(例如王者荣耀,Dota 2等), 但很难在包含大量自然语言和视觉图像的现实复杂应用中落地 ,原因包括但不限于: 数据获取困难 、 样本利用率低 、 多任务学习能力差 、 泛化性差 、 稀疏奖励 等。

  3. 2024年4月3日 · 1.介绍. 自从ChatGPT和GPT-4的出现以来 ( OpenAI, 2023 ),大语言模型(LLMs)在学术界和工业界迅速走红。 训练在数十亿令牌上的模型展现了深刻的情感理解和问题解决能力,引发了人们猜测通用人工智能(AGI)时代即将到来。 尽管如此,开发出与ChatGPT或GPT-4相当能力的模型的道路仍然模糊不清。 开源社区正在努力缩小专有LLM与开源模型之间的差距。 在过去的一年里,如LLaMA ( Touvron et al., 2023a;b )、Qwen ( Bai et al., 2023a )、Mistral ( Jiang et al., 2023 )和Deepseek ( Bi et al., 2024 )等一些显著的开源大语言模型取得了显著进步。

  4. 2024年4月18日 · 最好的学习方式莫过于自己从头做一遍。学习大模型的相关知识以来,一直都想从头自己训练一个 1B 以下的模型,感觉这样才算是真的学过了。不过以手头的资源,也只能玩玩儿迷你的小模型了。最近在网上搜了不少资料,主要是 GitHub 上的仓库和 Arxiv 上的 paper,顺便记录在这里。

  5. 一、让每一位开发者都用得起GPU. 2021年9月,NetMind.AI启动了一项名为NetMind Power的去中心化计算平台项目。 全球有大量的闲置算力:传统数据中心的闲置算力,中小型企业拥有的没有充分使用的算力以及个人拥有的零散GPU。 这些算力要么被闲置,要么被用来做游戏、视频渲染。 同时,AI算力又越发紧缺,AI研究人员、中小型企业尤其是AI创业公司、参与AI项目的传统公司都受困于AI算力的高成本和高门槛。 于是,NetMind Power创建了一个去中心化的计算网络,利用NetMInd研发的核心技术,撬动全球算力资源,为AI产业提供好用又用得起的AI算力服务。 NetMind Power是获取算力的经济之选,为用户提供高效且实惠的计算资源解决方案。

  6. 2024年3月27日 · 华为P70系列包括华为P70、华为P70 Pro和华为P70 Art三款机型,各自拥有不同的规格和功能。. 华为P70标准版,屏幕尺寸为6.58英寸,采用1.5K分辨率的OLED屏幕。. 处理器方面将搭载麒麟9000S芯片,支持5G网络和北斗卫星消息,但不支持卫星通话。. 华为P70 Pro:屏幕尺寸为 ...

  7. 2024年4月7日 · 步骤1:训练SFT (监督微调) 策略. 使用下一个词预测损失对预训练的LLM进行微调,这些微调数据基于人类示范。 在这项复现工作中,人类示范数据与OpenAI的工作保持一致,选自过滤后的Reddit TL;DR(Too Long; Didn’t Read)数据集(当时OpenAI还Open了他们的人类反馈数据集)。 步骤2:收集偏好对并训练RM (奖励模型) 使用SFT策略等采样不同完成序列,让人类标注员指出他们较偏好的序列。 基于这些偏好数据,通过在SFT策略上添加一个随机初始化的线性头来初始化RM,并优化交叉熵损失函数进行训练,目标是预测人类标注员更倾向于接受哪种完成序列。 步骤3:针对RM训练RL (强化学习) 策略.