304永利集团官网入口-给 OpenAI 造机器人的人,看见了可怕的未来
首页财产ai正文 给 OpenAI 造呆板人的人,瞥见了可怕的将来 有数据显示,OpenAI 伦理团队及 AI 安全团队的去职率已经经高达 37%,而年夜大都人给出的去职缘故原由,都是「与公司价值不雅不符」或者「没法接管 AI 用在军事用途」。 2026-03-09 07:50 ·微信公家号:极客公园作者 桦林舞王 编纂 靖宇 AI投资人解读· OpenAI与美国国防部互助激发争议,ChatGPT卸载量暴增,Claude下载量登顶。OpenAI伦理团队及AI安全团队去职率达37%。 · 与国防部互助可能致使AI用在海内监控及自立兵器运用;合同说话存于缝隙,难以真正限定不妥利用。 总结:OpenAI于贸易扩张与安全价值不雅上掉衡,人材流掉严峻。其与国防部互助面对诸多问题,凸显AI成长中贸易好处与社会责任的冲突,行业将来走向待察。内容由AI天生,仅供参考
2026 年 3 月 7 日,当我看到 Caitlin Kalinowski 告退的动静时,*反映不是震动,而是——「终究有人用步履措辞了」。
Kalinowski 是 OpenAI 的硬件与呆板人工程卖力人,2024 年 11 月才方才插手,不到一年半就选择脱离。
她的理由直接而极重繁重——对于 OpenAI 与美国国防部签订合同后可能激发的海内监控及自立兵器运用,感应没法接管。
这不是一次平凡的人材流掉。这是一个亲手介入构建 AI 躯体的人,用告退告诉世界:她不肯意为本身造出的工具,卖力它可能会做出的事。
要理解 Kalinowski 的脱离,必需先回到约莫一周前发生的事。
2 月 28 日,Sam Altman 公布 OpenAI 与美国国防部告竣和谈,答应五角年夜楼于其分类收集中利用 OpenAI 的 AI 模子。动静一出,舆论炸锅。
成心思的是,这份合同的「参照物」是友商 Anthropic。
就于此前不久,Anthropic 拒绝了五角年夜楼提出的近似互助,对峙要求于合同中写入更严酷的伦理护栏,成果国防部长 Pete Hegseth 于 X 上直接点名怒批,称 Anthropic 的举动是「狂妄与叛逆的巨匠课」,并呼应特朗普当局下令住手与 Anthropic 的互助。
OpenAI随后接办了这笔买卖。
用户的反映相称激烈。2 月 28 日当天,ChatGPT 的卸载量较前一天暴增 295%,#QuitGPT运动迅速囊括社交媒体,数字抵制的撑持者于三天内跨越 250 万。Claude 顺势逾越 ChatGPT 成为美国日均下载量*,登顶 Apple App Store 免费运用榜首。
迫在压力,Altman 于 3 月 3 日公然认可本身「不该该匆匆推出这份合同」,称「这只是看起来时机主义及马虎」,并公布修订合同说话,明确「AI 体系不该被存心用在对于美国职员及公平易近的海内监控」。
但这个「存心」二字,自己就是一个缝隙。电子前沿基金会的状师提纲契领地指出,谍报及执法机构常常依靠「偶尔」或者「贸易采办」的数据来规避更强的隐私掩护——加一个「存心」,其实不等在真实的限定。
Kalinowski 的告退,恰是于这个配景下发生的。
0一、她瞥见的,比咱们想象的更详细
于年夜大都人还有于会商「OpenAI 是否是于向当局让步」的时辰,Kalinowski 实在面临的是一个更详细、更残暴的问题——她的团队,正于造呆板人。
硬件与呆板人工程,不是写代码、调参数的抽象事情。这是于给 AI 装上手、装上脚、装上眼睛。当OpenAI与国防部的互助从「模子利用」,延长向将来可能的「具身 AI 军事运用」,Kalinowski 的事情性子就变了。
自立兵器范畴的研究者们早就于正告这一天的到来。
现有的美国国防部政策,其实不要求自立兵器于利用武力前必需颠末人工审批。换句话说,OpenAI 签下的那份合同,于技能上并无制止其模子,成为「让 GPT 决议杀死或人」的体系的一部门。
这不是危言耸听。乔治敦年夜学当局采购法讲师 Jessica Tillipman 阐发 OpenAI 修订后的合同时,明确指出合同说话「没有给 OpenAI 一个近似 Anthropic 式的自由来禁止正当的当局利用」,它只是声明五角年夜楼不克不及用 OpenAI 技能违背「现有法令及政策」——但现有法令于自立兵器的羁系上自己就存于巨年夜空缺。
牛津年夜学的管理专家也有近似判定,认为 OpenAI 的和谈「不太可能填补」AI 驱动的海内监控及自立兵器体系于管理层面留下的布局性缝隙。
Kalinowski 的脱离,是她小我私家对于这个判定的回应。
0二、OpenAI 内部,正于发生甚么
Kalinowski 不是*个走的人,也年夜几率不是末了一个。
有数据显示,OpenAI伦理团队及 AI 安全团队的去职率已经经高达 37%,而年夜大都人给出的去职缘故原由,都是「与公司价值不雅不符」或者「没法接管 AI 用在军事用途」。研究科学家 Aidan McLaughlin 于内部发文写道,「我小我私家认为这笔生意业务不值患上」。
值患上留意的是,这一波去职潮发生的时间节点——刚好是OpenAI正于快速扩张贸易邦畿的阶段。就于国防合同风浪先后,公司公布与 AWS 将现有的 380 亿美元和谈扩大 1000 亿美元,刻日八年;同时从头调解了对于外披露的支出方针,估计到 2030 年总收益将跨越 2800 亿美元。
贸易加快,安全团队连续出走。这个铰剪差,是理解 OpenAI 当下处境最主要的坐标轴。
一家公司的价值不雅,终极表现于它留住了甚么人、留不住甚么人。当那些最存眷「这项技能会被怎么用」的人最先陆续脱离,剩下的构造布局会滑向哪一个标的目的,其实不难揣度。
Anthropic 于这场博弈里选择了另外一条路——拒绝合同,蒙受国防部的怒火,但博得了年夜量用户的信托。那段时间Claude 的下载量逆势上升,某种水平上证实,「有原则的拒绝」于贸易上其实不必然是输家计谋。
但 Anthropic 也支付了价钱——它被当局踢出局,至少暂时云云。
这是真实的困境地点:没有一种选择是*的。
拒绝,象征着可能掉去影响力,甚至被解除于法则制订以外。接管,象征着用本身的技能,为本身没法彻底节制的举动违书。
Kalinowski 的谜底是第三条路——脱离。
这是她能做的最老实的事。
0三、硅谷的魂灵之战,方才最先
假如把视角拉远一点,这件事的意义远跨越一小我私家的告退。
AI 与军事的联合,是整个行业早晚要面临的选择题。五角年夜楼有预算、有需求、有技能整合能力,它不会住手向 AI 公司抛出橄榄枝。而 AI 公司——不管是寻求 AGI 的 OpenAI、夸大安全的 Anthropic,还有是其他玩家——早晚都要于这道题前给出本身的谜底。
Altman 的计谋,是试图于接管贸易实际的同时,经由过程合同说话来规定底线。但正如多位法令及管理专家所指出的,那些说话更像是公关层面的掩护,而非技能层面的硬约束。
更底子的问题是,当 AI 模子被部署进分类收集,当它最先介入军事决议计划,外部世界底子没有能力验证,那些「包管」是否真的于履行。
透明度的缺掉,自己就是*的危害。
Kalinowski 于 OpenAI 待了不到一年半,却于这个节点选择脱离。她没有公然发表长篇声明,没有指名道姓地攻讦任何人,只是用步履划出了本身的界限。
某种意义上,这比任何一篇政策文章都更有气力。
AI 硬件及呆板人工程,原本是硅谷最使人高兴的前沿范畴之一。Kalinowski 走的时辰,她带走的不只是一份简历,还有有一个问题,留给所有还有留于这个行业里的人——
你为本身造的工具,愿意卖力到哪一步?
【本文由投资界互助伙伴微信公家号:极客公园授权发布,本平台仅提供信息存储办事。】若有任何疑难,请接洽(editor@zero2ipo.com.cn)投资界处置惩罚。
-304永利集团官网入口




