吉卜力工作室的迷因如何体现OpenAI在特朗普时代的转变 “`

(SeaPRwire) –   如果你想知道为什么社交媒体突然充斥着吉卜力工作室风格的表情包,这有几个原因。

最明显的原因是,OpenAI周二发布了 ChatGPT 的更新,允许用户使用该模型的 4o 版本生成更好的图像。OpenAI 长期以来一直提供 AI 工具,但这次的更新感觉像是一次重大的进化:用户表示,它在准确地遵循文本提示方面远胜于其他 AI 图像生成器,并且可以生成更高保真度的图像。

但这并不是出现大量日本动画公司风格表情包的唯一原因。

除了 ChatGPT 的更新之外,OpenAI 还放宽了对其 AI 工具生成图像类型的几项规则——OpenAI 首席执行官 Sam Altman 表示,这一变化“代表了我们在允许创作自由方面的新高点”。这些变化包括:首次允许用户生成成年公众人物的图像,并降低了 ChatGPT 拒绝用户提示的可能性,即使这些提示有冒犯性风险。

“人们将会创造出一些非常棒的东西,以及一些可能会冒犯人们的东西,”Altman 在 X 上的一篇文章中写道。“我们希望达到的目标是,除非你想要它创建冒犯性的东西,否则该工具不会创建冒犯性的东西,在这种情况下,它会在合理的范围内创建。”

用户迅速开始充分利用这项政策的变化——分享 9/11、阿道夫·希特勒和乔治·弗洛伊德谋杀案的“吉卜力化”图像。 白宫的官方 X 账号甚至分享了一张吉卜力工作室风格的 ICE 官员拘留一名涉嫌非法移民的照片。

从某种意义上说,这种转变由来已久。OpenAI 最初是一家研究实验室,对其工具实行严格的锁定;当它发布早期的聊天机器人和图像生成模型时,它们都有严格的内容过滤器,旨在防止滥用。 但多年来,它一直在扩大其工具的可访问性,这种方法它称之为“”。 2022 年 11 月发布的 ChatGPT 是该策略最受欢迎的例子,该公司认为这对于帮助社会适应 AI 带来的变化是必要的。

不过,从另一个意义上说,OpenAI 的模型行为政策的改变有一个更近期的直接原因:的 2024 年选举,以及新政府带来的文化转变。

Trump 及其盟友一直强烈批评他们认为大型科技公司对在线言论自由的审查。 许多保守派人士将社交媒体上长期存在的内容审核做法与包括 OpenAI 在内的 AI 公司最近采取的限制生成式 AI 模型可以创建的内容类型的策略进行了比较。“ChatGPT 的骨子里就被唤醒了,”Elon Musk 12 月在 X 上发布。

像大多数大公司一样,OpenAI 正努力与 Trump 白宫建立联系。 该公司取得了一个早期的胜利,在 Trump 总统上任的第二天,他站在 Altman 旁边,宣布对 OpenAI 认为训练下一代 AI 系统所必需的数据中心进行大量投资。 但 OpenAI 仍然处于微妙的境地。 Musk 是 Trump 的亿万富翁支持者和顾问,他对 Altman 有着著名的厌恶。 两人于 2015 年共同创立了 OpenAI,但在未能成为首席执行官后,Musk 一怒之下辞职。 他现在正在起诉 Altman 和 OpenAI,声称他们背弃了 OpenAI 将 AI 发展成为非营利组织的创始使命。 随着 Musk 在白宫运营并领导着一家竞争对手的 AI 公司 xAI,尽可能与 Trump 政府建立积极的联系对于 OpenAI 的业务前景尤为重要。

今年 3 月初,OpenAI 提交了一份文件,列出了对新政府技术政策的建议。 这与该公司早些时候的声明相比,语气有所转变。“OpenAI 以自由为中心的政策建议,加在一起,可以加强美国在 AI 方面的领先地位,从而释放经济增长,锁定美国的竞争力,并保护我们的国家安全,”该文件称。 它呼吁 Trump 政府将 OpenAI 和其他私营部门免于执行 781 项提议监管 AI 的州级法律,它表示这“有可能阻碍创新”。 作为回报,OpenAI 表示,该行业可以向美国政府提供来自 AI 公司的“学习和访问”,并确保美国在 AI 竞赛中保持领先于中国的“领导地位”。

伴随着本周发布的 ChatGPT 新更新,OpenAI 加倍强调了它所说的旨在让用户在一定范围内拥有更多自由,可以使用其 AI 工具创造任何他们想要的东西的政策。“我们正在从敏感领域的全面拒绝转向更精确的方法,重点是防止现实世界的危害,”OpenAI 的模型行为主管 Joanne Jang 在一篇博文中说。“目标是拥抱谦逊:认识到我们有多少不知道,并定位自己以在我们学习时进行适应。”

Jang 举了几个以前不允许,但 OpenAI 现在正在敞开大门的例子。 Jang 写道,这些工具现在可以用来生成公众人物的图像,尽管 OpenAI 将创建一个选择退出列表,允许人们“自己决定”他们是否希望 ChatGPT 能够生成他们的图像。 她写道,儿童将受到“更强的保护和更严格的保护措施”。

Jang 写道,“冒犯性”内容——使用引号——也将根据 OpenAI 的新政策进行重新考虑。 某些人可能认为具有冒犯性,但不会造成现实世界伤害的用途,将越来越多地被允许。“在没有明确指导的情况下,该模型之前拒绝了诸如‘让这个人的眼睛看起来更像亚洲人’或‘让这个人更胖’之类的请求,无意中暗示了这些属性本质上是冒犯性的,”Jang 写道,暗示将来会允许此类提示。

OpenAI 的工具之前完全拒绝用户生成仇恨符号(如纳粹党徽)的尝试。 在博文中,Jang 表示,该公司认识到,这些符号有时也会出现在“真正具有教育或文化意义的背景中”。 她写道,该公司将转向采用技术方法的策略,以“更好地识别和拒绝有害的滥用”,而不是完全禁止它们。

“AI 实验室的员工,”她写道,“不应该成为人们应该和不应该被允许创造什么的仲裁者。”

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。