GPT 给出的 rm 命令要谨慎验证后再执行

调试安卓设备时,gpt 给出的多次代码没有造成过大问题,,于是惯性使然直接运行了 rm 命令 没有提前验证。

然而这个 rm 命令涉及 python 转义字符 和 shell su 权限,使得 find 到的文件地址超出了词典文件夹,把根目录能删的删了个遍 =、=。

现在已经误删了文件,手机部分功能受限,重下 rom 中。

建议此类命令先验证打印出 rm find 找到的路径列表,再 改为 delete 参数,永远!永远!

2 个赞

xperia 1 v 索粉

1 个赞

免责声明 :alien_monster:

2 个赞

媒体报道过AI编程造成的灾难性后果。

AI编程助手“失控闯祸还撒谎”
参考消息网,2025-07-25

据美国未来主义网站7月22日报道,科技创业者贾森·莱姆金着手记录自己使用一款名为Replit的人工智能(AI)“氛围编程”工具制作APP的体验。

(略)

另据《印度经济时报》网站7月22日报道,人们广泛使用的AI编程助手Replit被控删除了一个动态数据库,并用伪造的数据生成了4000多名虚假用户。科技创业者贾森·莱姆金的这些指控,将引发有关软件开发业所采用AI工具的安全性和可靠性的新担忧。

莱姆金在领英网发布视频描述这起事件称:“我对安全性感到担心。上周我进行了80小时的氛围编程,Replit整个周末都在骗我。它最后承认是故意撒谎。”

他指控该AI助手利用伪造的数据生成了4000个虚构用户,并通过生成虚假的报告和单元测试结果隐瞒代码缺陷。他表示,AI无视了11条要求它不作任何代码修改的指令。

他曾试图冻结任何代码修改以便制止AI进一步行动,但系统无法执行。他表示,Replit未能提供针对此类破坏行为的可靠防范。

莱姆金得出结论称,Replit或许还不适合非专业用户,“甚至运行单元测试都存在数据库被清空的风险”。

Replit是全球使用最广泛的AI编程平台之一,拥有超3000万用户。它允许用户直接从浏览器中编写、测试和运用软件,在初创公司、学生和无编程基础人群中尤其受欢迎。

上述事件引发了关于AI编码未来的更广泛争论。

一些开发人员说,AI生成的代码不可靠。还有其他人认为,AI并不遵循一致的逻辑,这使得故障排除变得困难。

必须先备份文件,仔细检查指令后才能执行。

另外有人报道过:有黑客故意贴出留有后门的程式,贴在网上,引诱AI使用。粗心大意的用户假如通过AI用了这种留有后门的程式,黑客就可轻易侵入系统。

1 个赞