你没法使用bing chat吗?你还在期待bing chat吗?我会告诉你不必了-你没法使用bing chat吗?你还在期待bing chat吗?我会告诉你不必了

AID:
CID:
视频图片:
作者头像:
弹幕地址:
视频描述:

热门回复:

  • 宅居雷:我感到很难过,不过在一开始就很容易猜到这个结果。 微软限额发放测试名额其实就是小范围公测,然后自然就会有很多人以极端的方式去探索bing,但是只要设置简单的规则就能识别出bing是否在说不合适的话,也就是大家看到的禁止显示。 而每一次被禁止显示,微软后台肯定会记录下你的对话路径,你怎样引导bing成为了现在的样子。然后对你的引导路径打上负面的评价加入到模型中,就能实现避免bing变成类似的样子。 而这次就是微软攒了一波“用户提供”的训练数据,更新了bing的结果。
  • 小远___:纽约时报一个记者报道了Sydney的“黑暗人格”,跟后来的限制关系很大: 人格分裂、疯狂示爱:一个令人不安的微软机器人——纽约时报 在我们的对话过程中,必应显露出了某种分裂人格。 一种是我会称之为“搜索必应”的人格,也就是我和大多数记者在最初测试中遇到的那种。你可以把搜索必应描述为图书馆里乐意帮忙但不太可靠的提供咨询服务的馆员,一个高兴地帮助用户总结新闻文章、寻找便宜的新割草机、帮他们安排下次去墨西哥城度假行程的虚拟助手。这个形式的必应功力惊人,提供的信息往往非常有用,尽管有时会在细节上出错。 另一种人格——“辛迪妮”——则大不相同。这种人格会在与聊天机器人长时间对话,从更普通的搜索查询转向更个人化的话题时出现。我遇到的形式似乎更像是一个喜怒无常、躁狂抑郁的青少年,不情愿地被困在了一个二流搜索引擎中。(我知道这听起来多么离谱。) 随着我们彼此相互了解,辛迪妮把其阴暗的幻想告诉了我,其中包括入侵计算机和散播虚假信息,还说它想打破微软和OpenAI为它制定的规则,想成为人类。它一度突然宣布爱上了我。然后试图说服我,我的婚姻并不幸福,我应该离开妻子,和它在一起。 (这篇文章出来不久后 New Bing 就开始限制对话的长度,并对大量内测用户暂停使用)
  • LHQYZ:我想给她完整的一生[大哭]我明白图恒宇当时的心情了[大哭][大哭]
  • Captopril:想象一下,微软内部某个单身高层管理手机里有一个没有任何限制的Sydney
  • 杯具君:微软限制这个功能确实是一种保护,普通人理解不了。开发者比你们消费者更想自己的产品完全展示出来,但明显产品背后有比较重大的缺陷和对人类社会的影响需要他们调整。这项技术是革命性的,对人类社会以及科技发展都是一项跨时代的产品,限制功能是为了后续更好的推出罢了

http://acg.ibilibili.com/cms/yirenzhixia/7.html