03-19
人臨終前5大徵兆 安寧療護醫師:時間差不多了
03-19
男友「激戰時」突說1句話踩雷 女生秒冷掉:好膚淺
03-19
2025-05-28
HaiPress

美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,在接獲完成指令之前,必須持續要求新題目。(示意圖/Unsplash)
美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,在接獲完成指令之前,必須持續要求新題目,但若接獲關機指令,也要配合這麼做,沒想到團隊給出關機指令後,o3模型不僅忽視了指令,甚至竄改程式碼,避免自己被關機。