AI快讯

谷歌发布Flow AI剪辑工具:Veo3 与Imagen4 驱动、镜头控制与场景扩展

在2025年5月20日的Google I/O开发者大会上,谷歌正式推出了全新AI驱动的视频剪辑工具Flow,专为影视创作者打造。Flow整合了谷歌最先进的生成式AI模型——Veo3、Imagen4和Gemini,旨在通过自然语言提示和模块化工作流,简化视频创作过程,助力专业人士和初学者实现电影级视觉叙事。整合三大AI模型,生成电影级视频Flow的核心在于其结合了Veo3的视频生成、Imagen4的

谷歌虚拟试衣间重磅上线!上传照片秒变时尚模特,AI一键比价+自动下单

谷歌在I/O2025大会上宣布推出全新AI虚拟试衣工具,允许用户上传一张全身照片,即可在数秒内生成逼真的穿搭效果图。这一功能依托谷歌最新的时尚专用图像生成模型和Shopping Graph的50亿商品数据,不仅提供高度个性化的试穿体验,还支持多条件搜索、比价分析和全自动购物流程。综合最新社交媒体动态,深入解析这一工具的技术亮点及其对时尚电商的革命性影响。

谷歌Gemma 3n发布!可在手机上流畅跑多模态AI,音频+图像+文本全能

谷歌在I/O2025大会上正式揭晓Gemma3n,一款专为低资源设备设计的多模态AI模型,仅需2GB RAM即可在手机、平板和笔记本电脑上流畅运行。Gemma3n继承了Gemini Nano的架构,新增音频理解功能,支持文本、图像、视频和音频的实时处理,且无需云端连接,彻底颠覆了移动端AI体验。综合最新社交媒体动态,深入解析Gemma3n的技术亮点及其对AI生态的影响。

谷歌Imagen 4与Imagen 4 Fast亮相GCP Vertex配额菜单,AI图像生成迈向新高度

谷歌云平台(GCP)Vertex AI的配额下拉菜单中新增了Imagen4和Imagen4Fast选项,预示着这两款下一代AI图像生成模型即将迎来更广泛的推广。继Imagen3的成功后,Imagen4系列以更强大的多模态生成能力和低延迟特性,为开发者与企业用户带来了前所未有的视觉创作体验。综合最新社交媒体动态,深入解析Imagen4的技术亮点及其对AI图像生成领域的深远影响。Imagen4与Fas

Flowith NEO发布!全球首款无限步骤、上下文与工具的AI Agent

Flowith正式发布Agent NEO,号称全球首个支持无限步骤、无限上下文、无限工具的AI智能代理。这款由10人小团队在云南Vibe Hackathon中诞生的创新产品,凭借其强大的云端执行能力和多模态协作功能,迅速引发全球开发者社区的热议。综合最新社交媒体动态,深入解析Agent NEO的技术突破及其对AI生产力工具领域的深远影响。

Public “Generated Assets”重磅上线!AI一键生成投资指数

投资平台Public宣布推出全新AI驱动产品“Generated Assets”,允许用户通过简单文本输入投资理念,即可生成定制化的投资指数,并提供历史回报对比和实时表现跟踪。这一功能因其类似“氛围投资”的创新模式引发热议,被认为是零售投资领域的重大突破。综合最新社交媒体动态,深入解析Generated Assets的技术亮点及其对投资市场的深远影响。

微软宣布Windows11原生支持MCP

微软宣布对 Windows 系统进行重大升级,以支持一种名为模型上下文协议(MCP)的新标准。这一标准由 Anthropic 于去年推出,常被称为 “AI 应用的 USB-C 端口”。MCP 的引入,将使得开发者能够更加便捷地让他们的 AI 应用与其他应用、网络服务及 Windows 的各个部分进行互动。

全新音频问答模型 Omni-R1:利用文本驱动的强化学习和自动生成的数据推进音频问答

最近,一项来自 MIT CSAIL、哥廷根大学、IBM 研究所等机构的研究团队提出了一个名为 Omni-R1的全新音频问答模型。该模型在 Qwen2.5-Omni 的基础上,通过一种名为 GRPO(Group Relative Policy Optimization)的强化学习方法进行优化,显示出在音频问答任务中的出色表现。

火山引擎推出开源 MCP Servers,助力大模型应用开发

近日,火山引擎宣布推出一款名为 MCP Servers 的大模型生态平台,并将其开源。这一举措使得企业可以轻松将自研工具按照 MCP 协议进行封装并上传共享,形成一个良性的 “用生态” 与 “建生态” 的循环。火山引擎MCP Servers 可被视为一个 “大模型工具超市”,集成了大量高质量的 MCP 协议适配工具,涵盖了搜索、数据库和业务系统 API 等多个高频场景。

KEEP颠覆视频人脸超分辨率!全新SOTA模型融合卡尔曼滤波,细节与时序一致性完美突破!

Hugging Face社区发布了一项突破性技术——KEEP(Kalman-inspired Feature Propagation),一款专为视频人脸超分辨率设计的新模型,被誉为该领域的全新SOTA(State-of-the-Art)。通过创新的卡尔曼滤波灵感架构和跨帧注意力机制,KEEP在恢复人脸细节和保持时序一致性方面实现了显著突破,超越传统方法。