找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

查看: 253|回复: 0

AI时代的小白入门手册

[复制链接]
发表于 2026-2-2 19:59 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
在AI时代,AI在我们每个人的生活中都占据着日益重要的位置。2026年,AI技术预计将迎来积累期后的井喷式爆发,也许有一天,我们每个人都需要学会如何与这种新的智能生命形式协作。

作为一个AI领域的初学者,今天我请到了AI领域的权威专家ChatGPT,G老师,与我一同完成这篇文章。厘清关于AI的基础概念,例如什么是prompt、API、Agent,AI算法工程师在做什么。无论是男女老少,对于想要对AI有基础了解的小白,都可以从中获得平白易懂的解答。也为我们在下一篇文章中去理解大模型的本质、探讨AI时代的哲学、伦理打下基础。

感谢G老师接受我的采访

萤灯:

G老师,最近vibe coding很火,没有编程基础的人也能学会vibe coding吗?

ChatGPT:

好问题,这个点最近真的很火。先给你一句大白话版结论:

无编程基础完全可以学 vibe coding,而且它本来就是给“非程序员”友好的玩法。

先说清楚:vibe coding 是什么?

vibe coding ≠ 学编程语法

它更像是用自然语言 + AI,把“我想做什么”变成能跑的东西

你不用从 for / if / class 开始,而是从下面开始:
    “我想做一个记账小工具”“我想要一个网页,能展示我作品”“我想自动整理 Excel”

然后让 AI 替你写代码,你负责方向和感觉(vibe)。

所以核心能力不是写代码,而是三件事:
    会描述需求会和 AI 来回迭代会判断结果对不对

在学习vibe coding的过程中:
    不被语法吓到不纠结“正确写法”只关心:能不能用、好不好用

这正是 vibe coding 的精髓

你要练的是怎么和AI说话,不是:“帮我写个程序”,而是:

帮我做一个极简网页,用来记录每日开销,有日期、金额、备注,手机也能用,不要太花哨,偏干净风格

关键技巧:
    多用 “像…一样 / 偏向…风格”把需求拆成 列表明确“不要什么”

你可以直接从这个开始,对我输入:

“我想做一个超简单网页
只有一个输入框和一个按钮
输入今天的心情,点按钮后显示一句鼓励的话
不要用任何复杂框架
每一行代码都解释给我听”

你完成这个,就已经在 vibe coding 了。

萤灯:这么一来,我感觉在AI时代,语言变得非常重要,学会用语言准确地描述的能力很关键。有没有一门学科专门研究AI时代的语言学?

ChatGPT:

你说得非常有洞察力:在AI时代,会“用语言与机器沟通”确实已经成为一项核心能力。围绕这个思考,现在有一个新兴的领域,既涉及语言本身,也涉及人类与 AI 的交互——这就是 AI语言学 / 提示工程 (Prompt Engineering) 和 AI时代的语言理解研究。

提示工程(Prompt Engineering)是目前“如何用语言让 AI 理解你”的第一手技能。它桥接了自然语言与 AI 生成系统之间的沟通方式,是未来语言与思维训练的重要组成部分。
提示工程不是简单地写好问题,而是设计好能够让模型真正理解意图、背景、结构的语言,从而输出精准结果。它越来越被认为是“AI时代的语言学实践技能”。

萤灯:你能够向小白简要介绍一下什么叫做prompt吗?

ChatGPT:

这是个特别关键的问题,我先给你一句最本质、不绕弯的定义:

Prompt = 你对 AI 说的话,用来引导它“怎么想、做什么、做到什么程度”

不是“问题”,不是“命令”,而是——一段用来塑造 AI 行为的语言输入。就像一个导演,指示一个演员对同一段台词有不同的表现方法和情绪,我将举一个例子来区分一个普通的向ai提问和一个prompt:
普通提问:


什么是 prompt?

AI 会给你:百科式解释
Prompt(在塑造 AI):


请用完全小白能懂的方式
不使用专业术语
用生活类比
解释什么是 prompt
字数不超过 300 字

你在控制 AI 的思考方式和输出风格
一个标准 prompt 里,通常包含着:

1️⃣ 背景(Context)


我是一个完全没有编程基础的人
2️⃣ 角色(Role)


请你扮演一位耐心的老师
3️⃣ 任务(Task)


帮我解释什么是 prompt
4️⃣ 输出要求(Format / Style)


用比喻,不要术语,像聊天一样

你可以就同一个问题写两段不同的prompt,看ai的回答会有什么不同。
这里一个非常重要的认知转变,以前我们学语言是为了把想法表达清楚给人听,现在多了一层:用语言塑造另一个智能体的行为

这在历史上是第一次。

萤灯:什么叫API?

ChatGPT:

这个问题你问得非常到位,因为 API 是“会不会用 AI / 软件”的分水岭概念。
一句话本质:

API = 不看内部细节,只通过固定“说话方式”向另一个系统要服务

就好比一个餐厅,大模型就像后厨颠勺的厨师,而API就是点菜系统,你告诉API你要什么菜,它去找大模型解决,然后再把菜端给你
举个例子来区分用不用API的方式:




不用 API 的方式

你直接在 ChatGPT 里打字:

帮我解释什么是 prompt

这是:人 → AI(通过界面)

用 API 的方式(程序 / 工具在用)

一个网页、App、软件在背后说:

“嘿,ChatGPT API
这是用户说的话
请按这个格式回复我”

这是:程序 → API → AI → 程序 → 人

你看不到 API,但几乎所有 AI 产品都在用它。

一个极简 AI API 示例(看感觉就行),你现在不用完全看懂,只感受结构:

{

  "model": "gpt-4.1",

  "input": "请用小白能懂的方式解释什么是 API"

}

意思是:

    我用哪个 AI

    我给它什么话

它会回我一个结果

你熟悉的 prompt,其实就是 API 里的一部分。很多人会混淆Prompt 和 API 的关系,这里做出一个区分:

API = 你和 AI “通信的方式”

Prompt = 你给 AI 的“内容”

就像一个是电话线,一个是通话内容。
放到 AI 语境里,API 在 AI 里是干嘛的?

API 只干一件事:让“模型能力”可以被外部世界调用




萤灯:AI Agent和API有什么关系?算法工程师在这个过程中是要做些什么呢?

ChatGPT:

你把两个最容易混在一起、也最关键的词放在了一起:Agent 和 API
先给你一句总览:


API 是“能力接口”,
Agent 是“会自己用接口做事的角色”。
1️⃣ 算法 / 模型(Model)


    真正的“智能内核”

    会预测、生成、理解

    你几乎碰不到它

这是算法工程师的主战场

2️⃣ API(接口)


    把“模型能力”包装成可调用服务

    定义:你能传什么、它回什么

API 是能力的出入口

3️⃣ Agent(智能体)


    一个“会做事的角色”

    能理解目标

    能调用 API

    能决定下一步干嘛

Agent = 使用 API 的主体
再举那个餐厅的例子,算法工程师 = 厨师团队,API = 菜单 + 下单系统,Agent = 服务员 /店长,它能听懂你说的话,判断你真正想吃什么,帮你点菜,必要时追问你,帮你把菜端回来

但是 Agent 自己不做菜,它只是会合理地使用菜单
那 Agent 是什么?简而言之,Agent 是一个“有目标的 AI 使用者”

它会做这些事

    接收一个目标

    拆解目标

    决定行动

    评估结果

    循环直到满意(这一步非常重要:Agent 会“自己决定再调用 API”)

所以

API 是“被动能力”,
Agent 是“主动使用能力的系统”。



算法工程师主要做 5 件事(但通常只被看到 1 件)


① 训练和改进模型(大众最熟悉的那部分),例如提升理解能力、提升生成质量、减少胡说、控制偏差


② 决定模型“擅长什么 / 不擅长什么”,即决定大模型能力边界


③ 设计 API 形态(非常关键但被低估),例如prompt 怎么传?上下文怎么放?返回结构是什么? API 的设计,会直接影响 Agent 能不能玩得转


④ 为 Agent 提供“可控性”,例如system prompt、温度(随机性)、工具调用格式、安全限制,简而言之, 算法工程师在给 Agent“方向盘”


⑤ 研究:Agent 能不能更像“自主体,即能不能让 AI 更好地“自己用 API 做事”?

下图可以说明这几者之间的关系:

w1.jpg

萤灯:这么说来,算法工程师有两种,一种自己并不需要去训练大模型,他只是需要掌握怎么去调用大模型,并且让大模型更符合自己开发的产品的需要,我可以这样理解吗?而还有另一种算法工程师,例如研发ChatGPT、Claude的那些人,他们做的才是训练大模型的工作?

ChatGPT:

你说的对,第一种算法工程师更准确的名字是

应用层算法工程师 / LLM Engineer / AI 产品算法工程师

他们的核心工作不是“造脑子”,而是

    选用合适的大模型(GPT、Claude、开源模型)

    设计 prompt / system prompt

    设计 Agent 行为

    调用 API

    控制输出质量、一致性、安全性

    让模型在产品场景里表现得“像个人”

他们 几乎不训练大模型,有时会微调(fine-tune),但规模不大

而第二种人可以被称作:

基础模型研究员 / 大模型算法工程师 / AI Research Scientist

他们不“写 prompt”,他们在研究:模型如何学会语言

第一类工程师关心的是:

这句话怎么说,AI 才更温柔?

他们关心的是

为什么一个模型,在看了海量文本后,
会“自动”学会语法、语义、推理?

很多时间花在读论文、做小规模实验、验证假设

他们真的在“训练模型”,但不是大多数人想的那样一行行喂数据

真实是:设计训练目标 + 监控训练过程

他们会决定:用什么数据比例,预测什么目标,loss 怎么算,训练会不会崩

然后让系统跑 几周甚至几个月。很多时候只是盯着曲线:

“这条线如果再往上,我们就完了。”

他们关心的是“规模”,而不是功能


他们在做你看不到的“对齐”(Alignment),这是 ChatGPT 特别重要的一层。他们在研究:


    怎么让模型不乱说

    怎么理解“人类偏好”

    怎么学会拒绝

    怎么不被 prompt 轻易带偏

这一步决定了AI 是工具,还是风险

他们在“赌未来的方向”,很多研究不是立刻有用的,比如:


    多模态

    自主 agent

    长期记忆

    推理能力

他们关心的是:

“如果 3 年后 AI 要更像智能体,那今天我们应该押哪条路线?”



这两层谁更“重要”?答案是:互相离不开。


    没有上层模型,应用层玩不出花

    没有应用反馈,研究层不知道什么有用

比如ChatGPT 本身,就是研究成果 × 应用设计 × 人类反馈三者叠加的产物

(未完)

注意:本文大量内容由AI生成、人类再编辑,请注意鉴别

在下篇文章中,我们将进一步探讨大模型和AI的本质,AI如何能够理解人类的语言。揭开AI的神秘面纱,其实AI并不可怕。

w2.jpg
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2026-2-23 08:12 , Processed in 0.090297 second(s), 31 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表