None

OpenAI强化平台安全性,避免生成式AI工具被用於选举操作

虽然台湾大选刚结束,但2024年还有许多国家面临重大选举,OpenAI也对此情况做出应对,要提升投票资讯的准确度,与执行谨慎的政策,还要提高透明度,进一步强化平台安全性。OpenAI结合安全系统、威胁情报、法律、工程和政策专家的力量,快速回应并打击潜在的滥用行为,确保各国选举过程的公正和稳定。

OpenAI透过红队测试,以及徵求用户和外部合作夥伴的回馈,建立安全缓解措施,防范潜在的危害,避免像是针对性误导的深伪影片,或是规模化的影响力操作,甚至是冒充候选人聊天机器人的出现。

OpenAI限制其工具,不允许用户将其用於政治竞选和游说的应用程式,并且也不允许开发假装是候选人等真实人物或是政府机关的机器人。同时,OpenAI也不允许滥用应用程式阻挡人们参与民主,像是错误陈述投票过程和资格,或是宣称投票无意义等抑制投票等行为。

官方提到,他们特别在选举期间,提高人工智慧生成内容方面的透明度。OpenAI采取的措施,包括强化图像来源的透明度,藉由实施内容来源和真实性联盟数位凭证,以密码学对内容来源资讯进行编码,使得图像来源更容易追踪。

此外,OpenAI还在开发一种称为来源分类器的工具,用以辨识DALL·E所生成的图像,即便图像被常见的方法修改过,还是不影响其溯源效果,官方计画之後将开放记者、平台和研究者进行测试。与此同时,ChatGPT也逐步与现有的资讯来源整合,像是全球即时新闻报导的来源和连结,有助於选民更好地评估资讯,独立做出判断。

在美国,OpenAI与全国国务卿协会(NASS)合作,指引用户存取美国投票资讯权威网站,而这项合作也作为OpenAI在与其他国家合作的经验。OpenAI接下来还会持续更新选举年新措施,并且与更多组织合作,避免工具遭到滥用。

李建兴

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x