1、2800位大神挑战最强渲染大赛,主题「Eternal Ascent」

日前,第八届渲染大赛落下帷幕,这是一项由艺术家 @pwnisher 向所有人发起的 3D 渲染挑战,每次他都会提出一个主题,然后让其他艺术家按照他设定的镜头去创作新的故事。而这次的主题叫做 Eternal Ascent,挑战者将要围绕一个不断攀登阶梯的画面进行脑补与制作。整个比赛历时一个月,收到了来自 104 个国家的 2800 件作品参加挑战。本届比赛第一名来自艺术家 @Luiggi Spaudo,在这位大佬描绘的画面中,男孩背着炸药、顶着足球,在晴朗的天空下挣扎于无尽的战场中。

2、百事可乐更换新包装

3、人工智能公司 xAI 开源 Grok-1 模型

3月11日,埃隆·马斯克表示 xAI 将开源其 AI 聊天机器人 Grok ,目前已在 GitHub 上提供开放源代码版本,这将使研究人员和开发人员能够在该模型的基础上进行构建。该公司的一篇博客文章解释说,这个开放版本包括“3140亿参数专家混合模型 Grok-1”的“基本模型权重和网络架构”。博文还称,该模型来自去年10月的检查点,并且没有“针对任何特定应用 (例如对话) ”进行微调。该模型以 Apache 2.0 许可证发布,允许商业用途。(各语言类小模型估计会得到一次较大的升级)

4、Sam Altman 预告 GPT-5 将带来超预期进步

OpenAI 的首席执行官 Sam Altman 近日表示,即将推出的 GPT-5 模型将大大超越人们的期待,并特别强调了所谓的“创新延迟”对当前科技进步的深远意义。Altman 认为,随着人工智能新模型的陆续问世,创新思维变得愈发重要,因为人工智能技术将不可避免地重塑我们的日常生活和商业生态。对于 GPT-5 的性能,Altman 表现出了空前的信心,这也是他首次对外明确展示对一个即将发布模型性能的强烈自信。他追求的是达到“通用人工智能(AGI)”的宏大目标,并相信通过大规模计算资源的部署,能够加速实现 AGI,同时解决如电力需求等相关实际挑战。

在与韩国硅谷的记者交谈中,Altman 虽然对 GPT-5 的具体发布日期保持谨慎,但他对该模型在推理能力上取得的进步充满信心,并对 GPT 模型的潜力表示了无限的期待。他进一步指出,低估 GPT-5 所带来的改进及其对业务发展的潜力将是一个严重的误判,暗示 GPT-5 的创新潜力可能远超人们的想象。

Altman 如今几乎将所有的注意力都集中在构建 AGI 上,尽管他曾对多个技术领域感兴趣,但现在他已全身心投入到人工智能的研究与发展中。他致力于全球 AI 基础设施的创新,并坚信计算资源将成为未来最宝贵的资源。Altman 乐观地预见,一旦突破了计算能力的限制并成功实现 AGI,当前 AI 领域面临的运算资源不足问题将变得不那么重要,AGI 有望加快科学研究的进程,促进经济的持续增长。他还提到,数据量的限制可能是 AI 发展的一个障碍,因此强调了研发能够用更少的数据学习更多知识的模型的必要性。

5、英伟达发布用于人工智能的“世界上最强大芯片”Blackwell B200 GPU

英伟达的 H100 AI 芯片使其成为价值数万亿美元的公司,其价值可能超过 Alphabet 和亚马逊,而竞争对手一直在奋力追赶。但也许英伟达即将通过新的 Blackwell B200 GPU 和 GB200“超级芯片”扩大其领先地位。该公司在加州圣何塞举行的 GTC 大会上表示,新的 B200 GPU 拥有 2080 亿个晶体管,可提供高达 20petaflops 的 FP4 算力,而 GB200 将两个 GPU 和单个 Grace CPU 结合在一起,可为 LLM 推理工作负载提供30倍的性能,同时还可能大大提高效率。英伟达表示,在具有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的7倍,而英伟达称其训练速度是 H100 的4倍。

6、苹果推出 300 亿参数 MM1 多模态 AI 大模型,可识别图像推理自然语言

苹果公司旗下研究团队近日在 ArXiv 中公布了一篇名为《MM1:Methods, Analysis & Insights from Multimodal LLM Pre-training》的论文,其中介绍了一款 “MM1”多模态大模型,该模型提供 30 亿、70 亿、300 亿三种参数规模,拥有图像识别和自然语推理能力。

苹果研究团队相关论文主要是利用 MM1 模型做实验,通过控制各种变量,找出影响模型效果的关键因素。研究表明,图像分辨率和图像标记数量对模型性能影响较大,视觉语言连接器对模型的影响较小,不同类型的预训练数据对模型的性能有不同的影响。

据介绍,研究团队首先在模型架构决策和预训练数据上进行小规模消融实验。之后利用混合专家(Mixture of Experts)架构及一种名为 Top-2 Gating 的方法构建了 MM1 模型,号称不仅在预训练指标中实现了最好的性能表现,在一系列已有多模态基准上监督微调后也能保持有竞争力的性能。

研究人员对“MM1”模型进行了测试,号称 MM1-3B-Chat 和 MM1-7B-Chat 优于市面上绝大多数相同规模的模型。MM1-3B-Chat 和 MM1-7B-Chat 在 VQAv2、TextVQA、ScienceQA、MMBench、MMMU 和 MathVista 中表现尤为突出,但是整体表现不如谷歌的 Gemini 和 OpenAI 的 GPT-4V。

7、微软和英伟达宣布重大集成,以加速各地企业的生成式 AI

在 GTC 上,微软公司和英伟达通过强大的新集成扩展了长期合作,这些集成在 Microsoft Azure、Azure AI 服务、Microsoft Fabric 和 Microsoft 365 中利用了最新的 NVIDIA 生成式 AI 和 Omnivers 技术。

微软将成为首批将 NVIDIA Grace Blackwell GB200 和先进的 NVIDIA Quantum-X800 InfiniBand 网络的强大功能引入 Azure 的组织之一,为自然语言处理、计算机视觉、语音识别等提供尖端的万亿参数基础模型。

NVIDIA GPU 和 NVIDIA Triton Inference Serve 有助于 Microsoft Copilot for Microsoft 365 中提供 AI 推理预测。Copilot for Microsoft 365 即将作为 Windows 11 PC 上的专用物理键盘按键提供,它将大型语言模型的强大功能与专有企业数据相结合,提供实时情境化智能,使用户能够提高他们的创造力、生产力和技能。

声明:本站资源和图片等来源于互联网,仅供参考学习使用,若该资源侵犯了您的权益,请联系我们处理。① 本站仅作为资源信息收集站点,无法保证资源的可用及完整性,不提供任何资源安装使用及技术服务。② 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需! ③本站为非营利性网站,本站所有资源均来源于网友投稿和互联网收集整理而来,仅供学习和研究使用。喜欢请支持正版,如有足够证据表明侵犯原著版权的,请及时联系我们删除处理!