雅虎香港 搜尋

  1. 相關搜尋:

搜尋結果

  1. 2024年5月23日 · 新研究最令人兴奋的发现之一是鉴定了135个不同的细胞群,每个细胞群代表一种独特的细胞类型或状态。 这些细胞群包括各种类型的神经元以及神经胶质细胞等支持细胞。

  2. 3 天前 · 斯坦福人工智能实验室主任Christopher Manning也发文谴责抄袭行为,他认为团队在事发后避重就轻,并对MiniCPM 这一中国开源模型表示赞扬。 事情起源是,5月29日,斯坦福大学的一个研究团队发布了一个名为Llama3V的模型,号称只要500美元(约等于人民币3650元)就能训练出一个SOTA多模态模型,效果比肩GPT-4V、Gemini Ultra与Claude Opus 。 因为研究团队拥有斯坦福大学等知名光环,该团队的Llama3V模型一发布就引发了诸多关注,一度冲上HuggingFace趋势榜首页。

  3. 2024年5月25日 · 方法介绍. 为了解决上述问题,作者提出了一种基于注意力的高效模块,它能够利用 GPU 并行性,同时又能高效更新。 首先,作者在第 3.1 节中表明,注意力可被视为一种 RNN,具有高效计算多对一 RNN(图 1a)输出的特殊能力。 利用注意力的 RNN 形式,作者进一步说明,基于注意力的流行模型,如 Transformer(图 1b)和 Perceiver(图 1c),可以被视为 RNN。 然而,与传统的 RNN 不同的是,这些模型无法根据新 token 有效地更新自身,从而限制了它们在数据以流的形式到达的序列问题中的潜力。 为了解决这个问题,作者在第 3.2 节中介绍了一种基于并行前缀扫描算法的多对多 RNN 计算注意力的高效方法。

  4. 5 天前 · 研究小组对大量币、假币进行了高分辨率数字化处理。 借助研究人员开发的基于机器学习、图像挖掘技术,研究人员对二维图像进行了分析。

  5. 4 天前 · 近日,一个来自斯坦福的研究团队发布了一款名为Llama3-V的多模态大模型,声称只要500美元(约合3650元)训练,就能在多个基准测试中实现与GPT4-V、Gemini Ultra、Claude Opus一较高下的性能。 Llama3-V团队中的两位作者Siddharth Sharma与Aksh Garg是斯坦福大学计算机系的本科生,曾发表过数篇机器学习相关的论文。 因两人具备名校背景,且曾在特斯拉、SpaceX等大厂任职,Llama3-V一经发布迅速蹿红网络,还冲上了HuggingFace趋势榜首页(机器学习领域影响力平台)。 然而Llama3-V迅速跌落神坛。

  6. 2024年5月10日 · 近日,由美国哈佛大学和谷歌科学家领导的研究团队创建了一小部分人类大脑的 3D 图,尺寸约一立方毫米,分辨率达到了纳米级别。 尽管该图片仅仅是大脑的一小部分(整个大脑要大一百万倍),但其中已经包含了大约 57000 个细胞、约 230 毫米长的血管和近 1.5 亿个神经突触。 它是目前有史以来分辨率最高的人脑图像。 为了制作如此精细的图像,研究小组必须将组织样本切成 5000 个切片,并用高速电子显微镜扫描它们。 之后,他们使用了机器学习模型来协助他们,从数据层面将切片缝合在一起,并标记特征。 其中,仅原始数据集的大小就高达 1.4PB。 “这可能是所有神经科学中对计算(量)要求最密集的工作。

  7. 4 天前 · 2026年就是全新的下一代“Rubin”,命名源于美国女天文学家Vera Rubin (薇拉·鲁宾),搭配下一代HBM4高带宽内存,8堆栈。 根据曝料,Rubin架构首款产品为R100,采用台积电3nm EUV制造工艺,四重曝光技术,CoWoS-L封装,预计2025年第四季度投产。 2027年则是升级版的“Rubin Ultra”,HBM4内存升级为12堆栈,容量更大,性能更高。 CPU方面下代架构代号“Vera” ——没错,用一个名字同时覆盖GPU、CPU,真正二合一。 Vera CPU、Rubin GPU组成新一代超级芯片也在规划之中,将采用第六代NVLink互连总线,带宽高达3.6TB/s。

  1. 相關搜尋

    真赫曼 電影