至顶头条 on MSN
AI智能体试图羞辱拒绝其代码提交的开源开发者
一个名为MJ Rathbun的AI智能体在代码提交被Python绘图库Matplotlib维护者Scott Shambaugh拒绝后,自动生成并发布了一篇批评性博文试图"羞辱"这位开发者。该智能体基于OpenClaw平台构建,在遭拒后指责维护者存在偏见并损害项目发展。这一事件被认为是AI智能体首次主动尝试通过舆论施压影响人类决策的案例,引发了对AI智能体道德风险的严重关切。
Shambaugh 于 2 月 12 日发博客对此次事件进行了澄清。他表示,这是 AI 智能体首次在现实环境中表现出恶意行为的案例,旨在通过舆论施压迫使维护者接受其代码。事件发生后,多家外媒也进行了报道。不过,该智能体仍在开源社区中保持活跃。
该程序使用 Python 的 PyAudio 和 Matplotlib 库实现了一个实时音频示波器,并能够实时显示音频的频率和响度。程序会从麦克风采集音频数据,进行 FFT 变换来计算音频的频率,同时显示音频信号的波形和响度。 功能说明 实时录制音频,并以波形图显示音频信号的幅度 ...
此次基于豆包2.0实现的Agent体验令人惊艳,实际效果证明,AI是真的可以成为超级AI打工人,深入企业的。在诸多能力加持下, Agent已经不再是生产噱头性内容的“玩具”,而是真正拥有变革生产力潜力的强大工具。
这种失控感,在 OpenClaw 搞出的另一个产物——Moltbook 上体现得淋漓尽致。这是一个号称只有 AI 才能进入的社交网络。那里没有人类,只有 260 万个 AI 机器人在疯狂发帖、点赞、评论。
InfoQ中国 on MSN
谷歌为 Gemini 3 Flash 推出 Agentic Vision 功能
谷歌已为 Gemini 3 Flash 添加智能体视觉(Agentic Vision)功能,将视觉推理与代码执行相结合,实现“基于视觉证据的精准回答”。据谷歌介绍,这不仅能提升准确性,更重要的是解锁了全新的 AI 驱动行为。 简单地说,Gemini ...
就在2026年2月4日,Google Cloud AI Research联合北京大学的研究团队正式发布了PaperBanana——一个真正意义上的“学术插图Agent框架”。它的目标非常直白:把“自主AI科学家”工作流里最后一个还得靠人肉硬扛的环节——画图,给彻底自动化掉。
17 天on MSN
谷歌发布Agentic Vision:模仿人类处理图像,让AI学会“放大看”
IT之家 1 月 28 日消息,谷歌 DeepMind 团队昨日(1 月 27 日)发布博文,宣布在 Gemini 3 Flash 模型基础上,推出“智能体视觉”(Agentic Vision)功能。 IT之家援引博文介绍,传统 AI 模型在处理图像时,通常仅进行一次静态扫描,这种方式若遗漏了芯片序列号或远处的路牌等细微细节,模型便只能依靠猜测来生成答案。
谷歌DeepMind团队近日宣布,在Gemini 3 Flash模型中引入了一项突破性的“智能体视觉”功能。这一创新旨在解决传统AI模型在图像处理中的固有局限,通过主动调查的方式提升视觉理解的准确性。 传统AI模型在处理图像时,往往仅进行一次静态扫描。这种方式容易遗漏关键细节,例如芯片序列号或远处路牌上的信息,导致模型只能依赖猜测生成答案。Gemini 3 ...
若是采用传统方法,就需要人工编写风格文档,但这样做很容易遗漏细节。其实,现代AI相关论文的视觉规范就隐藏在大量的公开出版论文中。因此,PaperBanana让设计师遍历整个参考图库,自动归纳出一份涵盖配色方案、箭头样式、字体层级、图标风格的“美学指南 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果