AI好用但副作用大,亚马逊内部被指重复造轮子和数据管理混乱

AI好用但副作用大,亚马逊内部被指重复造轮子和数据管理混乱

拖把 / 2026-04-18 09:4946558

据《商业内幕》昨日报道,一份内部文件显示,亚马逊内部虽然要求积极使用AI,但不同团队大量使用AI构建自动化工作流与信息整理工具之后,公司内部出现了重复造轮子和数据管理混乱的现象,被称为“AI无序泛滥”(AI sprawl)。

因为各种生成式AI和AI智能体的不断进化,现在分分钟就能写出个AI工具,造轮子的速度很快,但旧轮子却没人管,这就让企业的监管和安全合规体系不堪重负。企业没有办法全盘了解有哪些AI工具正在使用、敏感数据存储在哪里,以及重复造了多少个轮子。

img-1682304593-77793.jpg

报道中拿以前的SaaS来举例。在20年前云计算刚兴起的时候,很多员工在没走审批、没报备给IT部门的情况下自主订阅了SaaS服务。

在互相不通气的情况下,员工重复订阅都还是小事。员工把各种资料、合同、数据都存在未经过公司授权的云端,形成了一套公司都不知道的“影子IT系统”。因为公司不知情,所以谁有权限、数据会不会泄露,公司都管不着,这才是大事。这种情况不符合很多公司的合规要求,后来经过整改后才得以规范化。

而到了AI时代,这些问题又卷土重来了。

107418427-1716383047556-gettyimages-1824109392-IdreesAbbas_04Dec2023__3.jpg

以前造轮子要投入人力、预算和时间,所以重复造轮子的事情是不多的,发现了也可以及时纠错并调整。然而现在,AI随手一写就能变出很多轮子,也没有人来做整合了,以至于亚马逊内部重复的轮子满天飞。

而且,亚马逊内部使用的许多AI工具,会在处理了内部数据后生成一套知识库或者摘要,就像一个人看完了课文后做了一套笔记一样。笔记和课本是分开存放的,但如果课本被删了,或者改了调用权限,AI生成的笔记却还摆在桌上,这就容易造成数据泄露。曾经一个叫做Spec Studio的系统就泄露过已被亚马逊设为私有的软件代码,这就是一个潜在的隐患。

5680686a-086d-4136-8765-b298856c2968.jpg

目前,亚马逊的做法是“原汤化原食”,用AI来查重、标记风险和尽快整合。然而这份文件指出,由于亚马逊内部一直倡导“小团队各显神通”的企业创新文化,恐怕各个团队开发的AI善后工具又会引发新一轮的“AI无序泛滥”,这下真是一根筋要变成两头堵了。


发表评论注册|