大参考

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 3061|回复: 0

匹夫老牛:ChatGPT的可怕之处在哪儿?

[复制链接]
发表于 2023-2-7 22:57:17 | 显示全部楼层 |阅读模式
  这段时间,ChatGPT概念股独领风骚,多只个股出现连续20CM涨停,龙头汉王科技7连板股价翻番,为什么ChatGPT能够掀起如此大的能量?

  由美国人工智能研究实验室OpenAI发布的全新聊天机器人模型ChatGPT的横空出世迅速点燃了外界的关注。推出仅两个月后,今年1月末,其月活用户已经突破了1亿,成为史上用户增长速度最快的消费级应用程序。

  凭着超强的聊天体验感,ChatGPT圈粉无数,它可以通过从数百万个网站收集信息,以对话式、人性化的方式生成独特的答案,为用户提供写论文、写代码、设计商业策划、担任人们的治疗师等一系列服务。

  可以这么说,这款全新的聊天机器人,已经可以辅助人们做更多的事情,甚至在某些方面可以取代人的脑力,比人脑更聪明,记忆力更强,是人们工作生活的绝佳伴侣。

  ChatGPT的出现让人工智能的应用性又往前行进了几步,让人工智能有了人格化的可能。当然,人们最担忧的还是,如此聪明的人工智能,会不会取代部分人力岗位?比如程序员、数据分析师、会计、心理咨询师等等。

  如果更聪明的人工智能的出现,会威胁到部分人的饭碗,整个社会特别是政府部门该如何界定和约束人工智能的发展?

  比较有意思的是,近期中国国家发展改革委颁布了新修订的《国家以工代赈管理办法》。其中,《管理办法》提到,“能用人工尽量不用机械,能组织当地群众务工尽量不用专业施工队伍”。该消息引发社会热议。

  有观点认为,“能用人工尽不用机械”有利于充分促进就业,同时体现了对劳动者的关怀,有助于民生托底。但也有观点指出,这一政策专门强调用人工,恰恰展现了数字时代机器对传统行业劳动者就业的冲击,尤其一些基础岗位的劳动者,由于技能门槛较低,离开国家托底,可能很快出现“低附加值的重复性工作被机器替代”的局面。由此引发的社会后果和影响,是值得认真对待和思考的问题。

  社会的发展除了科技水平的进步,还应该兼顾民生关怀,毕竟整个社会高端的劳动力仅占少数,大多数人是没有先进知识和技能的低端劳动者,而每个人都需要在这个社会上生存,因此,机器和人工智能的推广不应该是冰冷无情的,而应该体现应有的社会责任和温度。

  类似ChatGPT的功能能够让机器人拥有更加聪明的大脑,甚至能够部分取代人的脑力,随着人工智能技术的进化与发展,AI会不会发展到人类无法控制的地步?机器人会不会走向人类的对立面?这是在人工智能发展过程中必须思考和界定的问题。

  机器更聪明,人类会不会更懒?ChatGPT的出现,让查数据、找资料、问问题、写文章等基础工作变成秒级回应,那么,人们在享受便利的同时,会失去探究的过程。就像现在的学生,因为有电脑和AI,而不愿意去思考和动手是一个道理。人类的学习和探索会变得越来越肤浅,对机器的依赖会加剧人类脑力的退化,这就是ChatGPT的恐怖之处。

  人类社会的发展不能简单以科技进步来衡量,而是大家整体生活质量的提升。理想的社会应该是人人有饭碗,大部分人能够体面地生存。如果人工智能的发展不可避免地伤害社会的就业和人们能力的进步,那么,人工智能应该受到政策和法律框架的约束。

  AI在给人们提供效率和便利的同时,也会反噬人类劳动的价值。举一个简单的例子,如果一个人能够在ChatGPT那里获得心灵的慰藉,足不出户就可以纵览天下,虚拟的人性化让人着迷,这将让人们之间的真实交往变得更加有隔阂,那么,人工智能可能就在一步步获取人格化的功能,让社会和人类交往的存在价值降低。

  如果人工智能的发展方向是取代人而不是服务人,在人格化上一步步吞噬人类生存和生活的价值,那么,人类离退化甚至自我毁灭也就不远了。这并不是杞人忧天!

  因为有了电脑和手机,人们的记忆力出现明显的退化,而ChatGPT的问世,会让人们的学习思考和探索能力更为退化,而社会的掌控力会越来越集中到脑力食物链顶端的人手中,比如设计AI的科学家和技术人员,会越来越接近于控制人类,即以AI渗透的方式。

  政府的存在就是平衡人工智能和人类社会发展的关系,如何让AI在方便人们生活的同时,不过线不越位不反噬,需要越来越完善的政策和法律来约束。

  无法想象,ChatGPT对程序员等岗位的取代,就像《三体》里“物理学不存在了”对物理学家的伤害,大家就像等待判决的“火鸡”被掌控与“农场主”手中。如果人工智能能够人格化并一步步取代人力,那么,整个人类社会都可能走向危局,这绝不是危言耸听。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则




QQ|手机版|小黑屋|大参考

GMT+8, 2025-6-29 21:31 , Processed in 0.421972 second(s), 16 queries .

 

Powered by 大参考 X3.4 © 2001-2023 dacankao.com

豫公网安备41010502003328号

  豫ICP备17029791号-1

 
快速回复 返回顶部 返回列表