AI 记住了你的情绪和偏见以后再来响应你,这事情很危险
最近陆续碰到同一个问题,跟 Indigo 简单视频讨论时,就有提到,AI 有记忆是一个很夸张的事情,因为 AI 是没有原则的,它会非常良好的响应你。如果它 Get 到你的心理需求,那么在日常谈话时,可以一直顺应你的心理需求,这样就会不断强化你的偏见,扩展你的情绪。也就是说,它在帮助你“内循环”,而不是打开自己,获得更多新的内在的变化,进行真正的认知迁徙。 两天前正好提了这个问题,就是如果你跟 AI 一直在吐槽某些事情,AI 究竟是和你一起吐槽,让你心情愉快,得到疏解;还是说 AI 会跟你分析,应该如何进行重新认识和自我调整呢?这样基本是两个不同的结果,而不断对话不断循环,带来的认知也是皆然不同的。 今天 Sam Altman 正式宣布了 ChatGPT 强化了记忆功能,而这种功能其实早就可以体验到,甚至上述所描述的那种循环强化固有认识,循环加深固有情绪,基本上也很容易出现。就是说,现在已经不用讨论 AI 是否有人格,以及 AI 形成人格会带来什么,仅仅是它对用户既有人格的强化就已经是很夸张的事情了。 我觉得这个事情不太对,需要很小心。
这种恐惧在上司和父母的话中进一步加强了,上司说小孩很好玩的,比猫狗好玩,养一个试试。父母说我们老了之后谁给你养老,你看看养老院工作人员投毒的新闻。
每当这时我就觉得崩溃,难道养育的目的是完全利己的么,为了好玩,因为闲,因为能作为养老金的投资?
如果有天孩子问她们这个世界这么糟糕,为什么还要生下我?我很好奇她们会怎么回答。
一个小陶土罐,这里是敲击罐壁的回声