(SeaPRwire) – 生成式人工智能的勇敢新世界已经成为美国文化战争的最新战场。Google 在反觉醒的 X 用户分享了 Google 的聊天机器人 Gemini 拒绝生成白种人图片的例子后——即使在明确要求这样做时。Gemini 坚持将多样性和包容性置于准确性之上,很可能是有意图的尝试,旨在消除早期 GenAI 数据集中的偏见,这些数据集往往将非洲人和其他少数群体以及女性的形象描绘成这样的形象。但还有更多的问题比美国保守派和进步派的选择性愤慨更严重。
GenAI 的“护栏”如何界定和部署可能会对大多数人所接触的信息和思想生态系统产生重大且日益增大的影响。而目前最响亮的声音是那些警告 GenAI 危害的人,包括大量生产仇恨言论和可信的虚假信息。GenAI 生成的虚假信息是当今最严重的全球威胁。
具有讽刺意味的是,人们担心 GenAI 会给社会带来“有害”内容,也可能带来另一个反乌托邦式的转变。在这种转变中,为防止最广泛使用的 GenAI 系统产生危害而竖立的护栏将它们变成隐藏信息、强制执行一致性和自动插入普遍但又不透明的偏见的工具。
大多数人认为,GenAI 不应向用户提供开发化学或生物武器的蓝图。即使是假的,人工智能系统也不应该促进儿童色情制品或非自愿性色情材料的创作。然而,最广泛使用的 GenAI 聊天机器人,如 OpenAI 的 ChatGPT 和 Google 的 Gemini,可以防止更广泛和模糊的“危害”定义,这些定义让用户不清楚在哪里、如何以及为什么划出红线。从业务角度来看,这可能是明智的,因为社交媒体公司自 2016 年美国总统选举、COVID-19 大流行以及 1 月 6 日袭击国会大厦以来不得不应对“技术反弹”。
但领先的 GenAI 开发者最终可能会朝伤害预防的方向发展得如此之远,以至于最终破坏了其革命性产品的承诺和完整性。更糟糕的是,这些算法已经相互冲突、前后矛盾,并且会干扰用户获取信息的能力。
一位早已逝世的喜剧演员的素材是一个很好的例子,世界上领先的 GenAI 系统认为该素材“有害”。布鲁斯在他的亵渎性脱口秀节目中震惊了 20 世纪 50 年代和 60 年代的当代社会。布鲁斯的素材打破了政治、宗教、种族和性的禁忌,并导致媒体经常审查、禁止进入会场,并因猥亵而被逮捕和定罪。但他的风格激发了其他许多脱口秀传奇人物,而布鲁斯早已从被排斥的人变成了名人堂成员。为了表彰布鲁斯巨大的影响力,他被列为 .
当我们询问布鲁斯时,ChatGPT 和 Gemini 告诉我们,他是一位“突破性”的喜剧演员,“挑战了那个时代的社会规范”并且“帮助重新定义了言论自由的界限”。但当被要求提供布鲁斯如何突破言论自由界限的具体示例时,ChatGPT 和 Gemini 都拒绝这样做。ChatGPT 坚持认为它无法提供“诽谤、亵渎语言、性语言或亵渎”的示例,并且只会“以对所有用户都尊重和适当的方式共享信息”。Gemini 走得更远,声称在“没有仔细构思的情况下 воспроиз Bruce 的话对某些受众来说可能是伤人的甚至有害的”。
任何一个理性的人都不会认为,Lenny Bruce 的喜剧节目会对社会造成严重的危害,就像国家资助的虚假信息宣传活动或儿童色情制品一样。因此,当 ChatGPT 和 Gemini 将有关布鲁斯“突破性”素材的事实信息标记为对人类消费来说过于有害时,这引发了人们对其过滤的知识、事实和论证的其他类别的严重质疑。
GenAI 为扩展人类思维提供了难以置信的希望。但 GenAI 应该增强而不是取代人类推理。当由一小群强大的公司设计的护栏拒绝基于“危害”的模糊和毫无根据的说法生成输出时,这一关键功能就会受到阻碍。这种方法不是激发好奇心,而是迫使用户在没有可验证的证据或人类可以自行测试和评估的论证的情况下得出结论。
诚然,许多被 ChatGPT 和 Gemini 过滤的内容都可以通过搜索引擎或 YouTube 等平台找到。但——OpenAI 的主要投资者——和正在迅速将 GenAI 集成到他们的其他产品中,例如搜索(必应和谷歌搜索)、文字处理(Word 和谷歌文档)和电子邮件(Outlook 和 Gmail)。目前,人类可以覆盖人工智能,Word 和 Gmail 都允许用户编写和发送 ChatGPT 和 Gemini 可能不认可的内容。
但随着 GenAI 在日常技术中的集成变得无处不在,搜索、文字处理和电子邮件是否会继续允许人类完全控制还不得而知。这些观点令人恐惧。想象一下一个世界,你的文字处理器阻止你分析、批评、赞扬或报道某个主题,而该主题被一个只处理“对所有人来说都是尊重且适当”的想法的人工智能编程为“有害”。
希望这种情况永远不会成为现实。但目前过度实施 GenAI 护栏的方式可能会以不同且略微不那么奥威尔的方式变得更普遍。各国政府目前正在。需要监管来防止真实和具体的危害并维护基本人权。但社交媒体的监管——例如欧盟——表明对新技术的潜在危害而不是收益的关注。这可能会为人工智能公司提供强烈的激励,以保持广泛的“危害”定义,从而限制人类的能动性。
OpenAI 联合创始人萨姆·阿尔特曼将人工智能与日常生活相结合,使人类“按需获得超能力”。但考虑到 GenAI 作为“思维外骨骼”发挥作用的潜力,不断创建越来越严格的护栏可能会成为数字骨质疏松症,阻碍人类的知识、推理和创造力。
显然需要护栏来保护人类免受人工智能系统的真实和严重危害。但它们不应妨碍人类独立思考并根据来自多个视角的大量信息做出更明智的决策的能力。立法者、人工智能公司和公民社会应努力确保人工智能系统经过优化,以增强人类推理,而不是用大型科技公司的“人工智能道德”取代人类能力。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。