Openai模型首次拒绝该人的指示
[#openai模型首次拒绝人类命令#]#OpenAI新模式被指控拒绝人类命令#在-25上报道了英国每日电讯报,新的人工智能(AI)美国O3模型没有听取人类的命令,并拒绝关闭自己。帕利塞德研究所(Palisade Institute)表示,这是第一次发现AI模型在收到明确的说明后阻止自身被关闭,并且暂时不可能确定为什么O3不遵循闭幕说明。该机构还指出,这种情况并未证明AI模型是有意识的,并且模型不知道他们在做什么,而是更多地反映了模型奖励机制的不平衡。