发布时间:2024-09-14 19:10 已有: 人阅读
“草莓”项目的训练涉及对经过后期训练的模型进行最终微调。这一过程类似于斯坦福大学的自学推理机技术。STaR技术允许AI模型通过反复创建自己的训练数据,“引导”自己进入更高的智能水平,理论上可以让语言模型达到超越人类的智能水平。 值得注意的是,OpenAI此前多次因安全问题而受到质疑。今年7月,OpenAI的一名内部人士向美国证券交易委员会投诉,指控公司通过非法限制性保密协议限制员工对外披露与公司技术潜在安全问题相关的信息。更早之前,OpenAI原超级对齐团队负责人Jane Leike在离职后也指责公司忽视安全文化,只注重“闪亮的产品”而非安全。 而在8月9日,OpenAI发布了一篇关于安全性的博客,详细介绍了公司在开发ChatGPT用户的旗舰模型GPT-4o时所做的安全努力,并探讨了这些技术可能对社会带来的风险。 OpenAI警告称,用户可能会与AI建立社会关系,进而减少对人际交往的需求——这或许对孤独的人有益,但也可能影响健康的社会关系。与AI的长期互动甚至可能影响社会规范,比如,模型允许用户随时打断和“拿走麦克风”,这种行为虽然对AI来说理所当然,但在人际交往中却显得粗鲁。 在谈到GPT-4o的早期测试时,OpenAI透露,他们观察到用户与模型的互动语言开始出现微妙的变化,例如,表达共同纽带的语言,“这是我们在一起的最后一天”等等。这种看似无害的行为,背后可能隐藏着更大的问题。 此外,OpenAI还提到,GPT-4o有时会无意间生成模仿用户声音的输出。换句话说,它可能被用来冒充他人,从而被利用进行犯罪活动。 |