找回密码
 注册

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 88|回复: 0

AI - 让你更爽还是更丧了,红线在哪?

[复制链接]
发表于 2025-10-16 21:57 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
更爽了吗8 月 4 号,马斯克家的 xAI 给付费用户上线了 Grok Imagine 功能,用文字或说话就能生成图片,且能一键把图变成 AI 视频。听说一上线就火爆了,尤其是里面那个 “火辣模式”(Spicy Mode)涩友们争先使用。

比如用户打开一张TaylorSwift穿短裙露肩的图,点 “制作视频”,选 “辣” 模式,再随便输个自己的出生年份(假到不能再假的成年人验证),视频瞬间就生成了。视频里Swift直接脱到只剩丁字裤,在一群 AI 生成的 “冷漠观众” 面前艳舞……

悄悄说下,你是不是现在就想试一试?

刷短视频还刷到过,小作坊制作的搞笑视频。2吨重的肉泥嬛嬛睡在一脸溺爱的四郎旁,大声嚷着要吃巨无霸,不够吃还得用货拉拉先拉20吨汉堡到皇宫,倒车进碎玉轩。你别说,制作的真实度还是不错的。半夜看到真是会狗眼正圆,表情不能自理。

还有你爪子刷着的抖音视频号,学生写的论文,连你用的连妈都不认得的惊世美颜,基本也是被AI包圆了。更丧了吗每天目不暇接的AI视频、AI文章,就连程序员敲的准备要干死自己的代码,也是AI生成。相当于程序员用工具打造干死自己的工具。还有写公众号的,没错,是我。多少都会用到AI。可怎么觉得工作实际也没减少多少,感觉越看越累,产出越来越雷同,越用越元气消耗。为了用AI,基本放弃了自己脑子的deepseek。敲几行prompt回车,喝口咖啡等一下输出,Ctrl+C/Ctrl+V,运行,喝口咖啡,报错,Ctrl+C/Ctrl+V错误,再回车...... 脑子呢,这不交给AI了嘛。生成的图片,这里有点不对,改改,还不对,再改改,额?你这**怎么乱改啊!搞来搞去,过段时间,自己除了prompt本事见长,自家手艺还没传给徒弟基本就快废了吧。AI的红线在哪,到底用还是不用?上面说的Grok Imagine大老板马斯克,要知道,23年他可是第一个跳出来想联合千名专家反对Sam Altman 再继续搞GPT4后续版的。包括AI三巨头的其二Geoffrey Hinton及Yannic LeCun,不是说某些领域会伤害人类就是说AI是史上最大骗局。这无疑上升到了一个社会和哲学的问题。至少浅显的我浅显的认为,在工具效率层面,用AI是没问题的。但在具有自主性或人性的应用上,还是谨慎,甚至不用。AI的原理

为什么大佬会在某些方面反对。他们反对的方面基本上是:不是因为一觉醒来AI自我觉醒了把你干掉,而是因为它可能蠢到无法正确执行人类想让它干的事情,或者用它来诈骗你的女朋友。说了一堆,这里得说点技术性的东西,AI到底是个什么东西,是怎么训练的。行业内的就当看笑话,浅显的我就浅显地说一说,AI看起来很复杂,其实一点也不简单。但最基础的原理还是很基础的,所以我就只说最基础的。
你们经常看到有人说,AI三要素:数据、模型、算力。(记住它,可能有助于你炒股时挖到宝藏)
AI的学习训练流程大概类似是这样子的:就和小baby学习认识东西类似,你老是对着他说,叫爸爸 爸爸 爸爸,于是久了他就认识你是他爸爸。相当把你的容貌这个数据打上了“爸爸”这个标签,去训练小baby这个模型,让你容貌和爸爸产生强关联。训练多了,他就会自己分类了,只要遇上你这个数据,他就会正确输出。
一般而言,训练的方法分:有监督学习、无监督学习、强化学习等。上面的例子就是有监督学习,以此为例。
训练涉及到的东西基本就这几个:数据、标签、模型、前向计算、反向传播、损失函数、分类器。
1 - 我们先选择一个模型。基本就是选模型网络结构,不同的网络结构拥有不同数量和结构的神经元。比如人类和猪马牛羊等;
2 - 输入数据。我们把数据(大量的数据)制作好,对应有分类标签;
3 -  前向计算。数据输入到模型网络中进行层层计算。模型网络里面的神经元记载参数,神经元之间的链接通过计算符实现,是加减乘除还是啥,模型定,这部分叫算子。数据输入从模型网络最第一层算到最后一层叫前向计算(当然也有很多层级结构是循环几次或跳来跳去的)。
4 - 分类结果。前向计算完后,通过分类器得出一个结果。这个结果是还处于懵逼的模型算出来的,可能不准确,它可能以为你是隔壁王叔。不要紧,你赶紧让它和真实标签(爸爸)对应起来,做一个损失函数计算。其实就看输出和标签差距有多少。
5 - 反向传播。我们的任务就是把输出和标签差距的尽量弄得小小的。这样才能准确叫你爸爸。把上面的差距通过一个叫梯度下降的计算方法,从后面层往前面使用计算方法去消除差距,一般是用链式求导。没上过学的人都知道,求导其实是想知道函数在某一点的变化率。反正就是把差距消除分散在各个神经元中,这个神经元参数要加还是要减多少,由梯度下降计算得到,最终更新神经元参数数据。一直算到最前面一层。
6 - 反复重复3-5。模型前向计算出来的数值和标签越来越接近,最终得到一个很高的准确性,你就准备好收摊。训练中得到的模型参数数据连同网络结构,就叫训练好的模型,也就是不会叫你王叔的好大儿了。
有人问,6中要反复计算多少次,我也不知道,主打电费和时间一算一个不吱声。我只能告诉你,GPT-3训练过程使用了大约1287兆瓦时(也就是128.7万度)的电力,这相当于美国约一百多个家庭一整年的用电量。
我们该如何面对AI的发展老实说,你如何面对,我如何面对,你说了不算,我说也不算。毕竟这是一个很巨大的科技发展线路。大国是不会放弃的。如果你有葵花宝典我没有,我一定会搞一本的。但通过上面的AI训练浅显描述,有人可能会看出端倪。这AI是不是傻啊,简直就是人工智障!没错!对!就是人工!智障!它不能像人类一样,你只要见过一次大象的照片或视频,现实中你看到了你就会一眼认出来!甚至你只看到大象的长鼻子你就知道是大象。但它不行,如果没有预训练过,它需要你给出几百张甚至更多,还需要你故意制造出遮挡腿啊身体啊耳朵啊鼻子啊的情形给到它,并且一定告诉它这是大象,它才会训练出比较准确的结果。当然chatGPT Deepseek等语言大模型LLM不是分大象猴子,是预测下一个字的概率。生成式的,比如生成图片视频的,一般采用对抗性生成,相当你见过凶手,警察叔叔根据你的描述去画,你随便说,他随便画,你说不对,他改改,对的就不改,直到五官面部都核对OK画完。面对这样产生的事物,AI更像是一个工具,能帮人做重复的,繁杂的,没什么人性的工作。而一旦做了人性上的事,比如做决策,比如复刻死去的亲人,比如扮演你的女朋友。这是用工具替代人性,本质是没感情的。道法自然,如此这般,是有点倒反天罡。人为人,人性也,剥落人性,你和AI区别大吗?
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-10-17 23:58 , Processed in 0.098552 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表