您现在的位置:首页 > 民生 > 科创 > 正文

AI新观察 | 窥见美好未来时 更该多一份思考

来源:新民晚报     记者:郜阳     作者:郜阳     编辑:陆佳慧     2023-07-08 08:45 | |

图说:AIGC交互演示 新民晚报记者 刘歆 摄

爱因斯坦曾说,我从来不想未来,因为它来得太快。

得益于生成式人工智能相关技术的迅猛发展,智能创作时代正缓缓拉开序幕。当我们能够或多或少窥见人类与人工智能携手创作的美好未来时,我们也该有一份对未来的思考,这份思考将帮助我们更好地前行。

人工智能的发展经历过多次春天与寒冬,每一次春与冬的交织都和“通用化”及“专业化”的分歧息息相关。伴随着人工智能飞跃式进步,越来越多复杂场景出现,若还是针对什么任务训练什么模型,这种一般的工程思想也背离了人工智能的初衷,主打“通用化”的大模型在时代的浪潮下孕育而生。

通过在数据中捕捉更广泛、更精细的规律和关系,大模型可以生成更多样化且更真实的输出,让生成式人工智能变成现实,并且逐步深入我们的日常生活。

大模型在“狂飙”,却也必然伴随着“事故”,最显而易见的就是语言大模型常常提供错误或无意义的回答,要么就出现“幻觉”——我们常说的“一本正经地胡说八道”。

当然,最大的关注点,还是来源于伦理与法律。瑞莱智慧联合创始人、算法科学家萧子豪认为,大模型“落地难”的本质在于,当前仍处于“野蛮生长”阶段,还没有找到场景、风险和规范三者之间的平衡点。

大家首先关心的,莫过于大模型带来的“失业焦虑”。澜码科技创始人兼首席执行官周健分析,人们对于人工智能可能替代白领工作感到焦虑,但实际上这种替代是有先后顺序的,“在企业内部的组织结构上,可能从金字塔型变为钻石型,这意味着可以用不同的视角来管理团队和控制质量”。

还有,大模型所生成内容是否“有危险”,同样值得警惕,特斯拉首席执行官埃隆·马斯克就说过:“如果不加以控制,人工智能或许很有可能会摧毁整个人类。”

当然,人工智能领域频出的“换脸”事件,也给大模型时代的数字治理敲响警钟,生成式人工智能的版权问题、导致的欺诈问题、生成违禁内容等,都需要法律法规给“狂飙”下的大模型系好“安全带”,把好“方向盘”。

新民晚报记者 郜阳

今日热点

网友评论 小提示:您要为您发表的言论后果负责,请各位遵守法纪注意语言文明
您还能输入300
最新评论 [展开]

新民报系成员|客户端|官方微博|微信矩阵|新民网|广告刊例|战略合作伙伴

新民晚报|新民网|新民周刊|新民晚报社区版

新民晚报数字报|新民晚报ipad版|新民网客户端

关于新民网|联系方式|工作机会|知识产权声明

北大方正|上海音乐厅|中卫普信|今日头条|钱报网|中国网信网|中国禁毒网|人民日报中央厨房

增值电信业务经营许可证(ICP):沪B2-20110022号|互联网新闻信息服务许可证:31120170003|信息网络传播视听节目许可证:0909381

广电节目制作经营许可证:(沪)字第536号|违法与不良信息举报电话15900430043|网络敲诈和有偿删帖跟帖评论自律管理承诺书

|沪公网安备 31010602000044号|沪公网安备 31010602000590号|沪公网安备 31010602000579号

新民晚报官方网站 xinmin.cn ©2023 All rights reserved