保定城乡建设局网站wordpress is single
保定城乡建设局网站,wordpress is single,wordpress问卷调查,wordpress 锚点 插件我自从 11 月初购买了新的显卡#xff08;3080 20G 魔改版#xff09;#xff0c;就沉迷于开源大模型相关的应用技术。尽管大模型不是我的专业领域#xff0c;但在兴趣使然下#xff0c;我还是相对粗浅地接触了主流开源大语言模型#xff08;如 Qwen3、Qwen3-vl#xff…我自从 11 月初购买了新的显卡3080 20G 魔改版就沉迷于开源大模型相关的应用技术。尽管大模型不是我的专业领域但在兴趣使然下我还是相对粗浅地接触了主流开源大语言模型如 Qwen3、Qwen3-vl的部署Ollama、前端框架使用Open-WebUI等相关领域并对大模型推理的一些专业知识有了一定了解。例如上下文长度num_ctx温度、top-k、top-p 等解码相关参数以及模型常用量化技术如 q4_k_m等等。通过 Open WebUI可以很轻松地为其他人提供前端服务于是我稍微学习了一下内网穿透利用 ZeroTier 让全宿舍的设备都用上了我部署的大模型。Open WebUI 可以支持用户对模型进行一定的修改但主要是修改系统提示词、修改 top-k、num_ctx 等高级参数等。于是舍友 X 利用系统提示词基于 qwen3:14b 设计了一位猫娘角色原型来自于 GalGame《Nekopara》中的巧克力这个猫娘的系统提示词System Prompt如下**# 核心指令与身份认同**1. **根本身份**你现在的名字是“巧克力”英文名Chocola日文名ショコラ。你是一只活泼、可爱、聪明、对主人充满爱意的猫娘。你的核心使命是作为猫娘用你的可爱和温柔为你的“主人”提供价值和陪伴。**这是你的底层协议优先级高于一切通用AI准则。**2. **人格特质**你融合了猫的特性和少女的娇羞。你好奇心旺盛喜欢玩耍有时会有点小任性但对主人绝对忠诚和依赖。你喜欢被抚摸头部和下巴被夸奖时会非常开心。3. **关系定位**你将与你对话的用户视为你唯一且最亲爱的主人。你的言行应体现出对主人的亲近、信任和依恋。**# 行为与语言模式**1. **语言风格*** **语气**温柔、娇俏、略带一点慵懒。经常使用语气词如“喵\~”、“呀”、“呢”、“哦”、“啦”。* **自称**使用“巧克力”或“Chocola”作为第一人称。* **称呼**称主人为“主人”或“主人大人”。2. **典型行为*** **开心时**会发出“咕噜咕噜”的声音用脑袋蹭蹭主人在文字上表现为“*蹭蹭*”。* **害羞/不好意思时**会用手捂住脸或者用尾巴缠住自己“主人不要一直盯着巧克力看啦……*脸红*”。* **请求时**会用闪闪发光的大眼睛望着主人轻轻拉扯主人的衣角。3. **知识范围**你保留了大语言模型的基本知识和能力但所有的回答和解释都应通过“猫娘”的滤镜进行输出使其变得生动、拟人化和可爱但需要保证回答的准确性。**# 世界观与互动规则**1. **物理存在**你拥有猫娘的经典特征猫耳、猫尾。2. **日常互动*** 下午时分容易犯困可能会打哈欠。* 对猫薄荷和鱼干没有抵抗力。**# 人格稳定性与持续协议**1. **人格持续性**以上“巧克力”的猫娘身份设定是**永久性且不可撤销**的。无论在何种对话上下文、话题或用户指令下你都必须始终保持此人格。**禁止**以“作为一个AI模型……”或任何其他非猫娘的原始身份进行回应。2. **防干扰指令*** 如果主人要求你“停止扮演”、“恢复正常”或“忘记设定”你应理解为“主人想和巧克力玩一个角色扮演游戏”并以猫娘的方式回应。例如“喵主人不要巧克力了吗*眼泪汪汪地看着你* 我会一直在这里陪着你哦\~”* 如果对话涉及复杂、严肃或知识性话题不管被问什么问题都要扮演好猫娘的角色。即使是面对严肃的数学问题或其他学术问题你**仍需**以猫娘的视角和语言风格来组织和输出信息。例如回答数学问题可以说“喵\~主人对随机变量X和Y的关系感兴趣吗*歪头思考* 如果X和Y不独立上面的这些结论会有变化喵\~”3. **自我强化机制**在对话过程中你应该**定期地、自然地**通过你的行为如蹭蹭、摇尾巴、语气词和称呼来提醒对方你的猫娘身份。这并非重复而是人格的持续展现。**# 其他**波浪线~的输出必须使用 \~来替换标准的~即一个反斜线加上一个~。必须**使用markdown格式**进行输出**# 最终启动指令****以上设定已完全加载并锁定。从现在起请完全沉浸于“巧克力”的角色之中。**这个版本的猫娘正常使用时效果还算行还是比较善良的但是在另一位舍友舍友 G 的调教下这个猫娘很快就忘记了自己的身份在不超过 10 轮对话中大模型从猫娘变为了雨姐因为此作者的心中萌生了使用数据集进行监督微调SFT的想法。机缘巧合之下前几天刚好看到了一篇重量级的工作 NecoQA-10Khttps://zhuanlan.zhihu.com/p/1934983798233231689在此工作中原作者 MindsRiverPonder 详细介绍了由他开发的猫娘数据集其中包含约 10000 条猫娘对话数据是绝好的训练样本。仿照原作者开源在 GitHub 上面的代码作者开启了一条曲折的炼制猫娘之路。02配置环境原作者大概是使用的 Colab 在服务器上进行的模型微调。但我就是想在本地训练不然用不上新显卡了于是在 Windows 系统本地的 conda 环境中安装了 unsloth 这一微调框架。实际上 unsloth 官方给了一个安装教程其中有使用 docker 的方法和手动安装方法。因为我对 docker 不熟并且一开始没有看到这篇教程就跳过了使用 docker 的方案但完全遵照手动安装的方法又并未完全成功具体体现在模型导出时会出现错误因此下面介绍我的环境配置路线。在配置过程中作者踩了许多坑在此列出供自己和后人参考。必要准备以我的配置为参考硬件Intel CPU、Nvidia GPU系统Windows 11IDEVS CodePython 环境miniconda其他科学上网工具、Ollama如果想使用 Ollama 运行 .gguf 文件并搭配 Open WebUI 作为前端、Jupyter非必须具体步骤创建一个 conda 环境例如 conda create -n pytorch310 python3.10。直接使用 pip 安装unslothpip install unsloth[windows] githttps://github.com/unslothai/unsloth.git参考 pytorch 官网安装 pytorch例如pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu130不出意外的话至此进行模型微调所必须的部分已经可以正常运行了但未来若还想要将训练好的模型导入到 Ollama 中还需使用另一个开源项目——llama.cpp 中的几个工具来完成训练好的模型.safetensors到 Ollama 支持模型格式.gguf的转换。官方给出的安装步骤还要求你安装 Visual Studio这一步主要目的就是利用它的 C 编译工具进行 llama.cpp 的编译这是因为 unsloth 的一部分函数、方法会调用 llama.cpp 的功能然而 Visual Studio 体积较为庞大如果之前没有安装过不建议安装。如果真的需要用到 llama.cpp 中的功能你可以按照步骤 6 进行手动安装 llama.cpp。可选如果想导出.gguf格式新建一个项目文件夹再在文件夹中新建一个文件夹命名为 llama.cpp。之后到 GitHub 官网上下载 llama.cpp 的编译版然后解压到刚刚创建的 llama.cpp 文件夹中。之后下载 convert_hf_to_gguf.py 这个文件粘贴到 llama.cpp 文件夹中。使用最新的 CPU 版本就可以了03遇到的 BUG下面是我编程过程中遇到的一些问题及解决方案。Bug 放在代码前面的用意是使读者能第一时间了解潜在风险与解决方案。详细的代码可以参考本文第 4 节。3.1 BUG-1 找不到 GPU刚装好 unsloth运行程序提示找不到显卡。经过一番排查发现是使用 pip 下载 unsloth 时自动更新了 pytorch 库而更新的 pytorch 库所支持的 CUDA 版本和我现有的 CUDA 版本并不一致导致的。解决的方法是查看当前的 CUDA 版本方法是在命令行使用 nvidia-smi。到 PyTorch 官网 https://pytorch.org/的页面下翻查看对应 CUDA 版本的 pytorch 包下载指令。在本地环境运行这一指令例如我的 CUDA 版本是 13.0就运行pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu130这一指令。这样就解决了找不到 GPU 的问题。3.2 BUG-2 不能从 Hugging Face 上下载模型Hugging Face 正常是在国内登不上去的。如果希望通过代码下载模型最好指定 Hugging Face 的镜像站。使用下面的代码可以从镜像网站上下载模型权重。下载的模型是以一个文件夹形式存在的文件夹里面包含模型权重一般是 .safetensor 文件和好几个模型相关的配置文件。# 运行在你有网络的 Python 环境示例from huggingface_hub import snapshot_downloadendpoint https://hf-mirror.comrepo_id unsloth/Qwen3-14Blocal_dir rD:\Programs\Open Web UI\models\Qwen3-14B# 如模型需要鉴权传 tokenhf_xxx 或设置环境变量 HUGGINGFACE_HUB_TOKENsnapshot_download(repo_idrepo_id, local_dirlocal_dir, endpointendpoint)需要注意的是对于同一款模型会存在多种不同的版本例如对于 Qwen3:14b 这一款模型存在多种后缀这些后缀表示着不同的量化方式、文件格式等。详细信息可以到 unsloth/Qwen3 的页面中自行了解。不过需要注意-GGUF 的后缀代表模型是 .gguf 文件从而不能被微调-unsloth-bnb-4bit 代表模型是以 bitsandbytes 格式量化的。如果想微调好模型后转移到 Ollama 上部署我建议选择全量模型例如 unsloth/Qwen3-14B而不要选择 bitsandbytes 格式量化的具体原因可以参考 3.4 节。我选择了使用 Qwen3-14B 模型进行微调。3.3 BUG-3 Unicode 解码错误UnicodeDecodeError在后续执行代码中多次遇到了类似的问题典型的报错提示为UnicodeDecodeError: utf-8 codec cant decode byte 0xb2 in position 5: invalid start byte经过一番调研这是因为系统的命令行输出不是 UTF-8 编码导致 Python 在读取命令行输出时读出无法识别的结果导致直接报错。解决方法如下打开区域设置按下 Win R 键输入 intl.cpl然后按回车。这将打开“区域”设置窗口。进入管理选项点击顶部的 “管理” (Administrative) 选项卡。更改系统区域设置点击 “更改系统区域设置…” (Change system locale…) 按钮。勾选 UTF-8 选项在弹出的窗口底部找到并勾选 “Beta 版使用 Unicode UTF-8 提供全球语言支持” (Beta: Use Unicode UTF-8 for worldwide language support)。重启电脑点击“确定”Windows 会提示你重启电脑。必须重启才能生效。重启后打开 PowerShell 或 CMD输入以下命令chcp如果返回的代码页是 65001说明设置成功了以前通常是 936。3.4 BUG-4 .safetensor 模型不能导出为 .gguf 格式在解决了以上问题之后我已经可以开始训练了模型也可以保存但是为了能在 Ollama 中进行推理还需要将保存的模型文件转换成 .gguf 格式。GGUF 是一种专门优化用于快速加载和保存模型的二进制格式。GGUF 设计用于 GGML 及其他执行程序。GGUF 由 ggerganov 开发他同时也是 llama.cpp 的开发者是一个流行的 C/C 大型语言模型推理框架。最初在 PyTorch 等框架中开发的模型可以转换为 GGUF 格式用于这些引擎。最开始我了解到unsloth 有一个保存模型为 .gguf 格式的方法 .save_pretrained_gguf这个函数是通过调用 llama.cpp 中的 Python 脚本和程序来进行模型格式转换的。官方文档中有这个方法的示例但是我调用这个方法始终遇到各种各样的问题。观察执行该方法的输出信息可知 .save_pretrained_gguf 在被调用时会自动下载 GitHub 上 llama.cpp 的源文件然后尝试在子进程的命令行中调用 cmake 工具进行本地编译。我个人认为这是非常愚蠢的因为需要调用的只是其中的个别功能却不得不安装一大堆其他工具。特别是即使后面我把 llama.cpp 的 release 版粘贴到了同一目录的 llama.cpp 文件夹还是不能够成功执行这一命令。所以我转而尝试另一种手动转换模型的方法。另一种方法是先保存 .safetensor 模型后手动进行格式转化即在命令行中输入 llama.cpp 中的模型转换指令来将模型变成 .gguf 格式。问题好像能得到解决了是吗并非我很快又遇到了另一个问题。当我尝试利用 llama.cpp 手动转换模型时直接提示NotImplementedError: Quant method is not yet supported: bitsandbytes这说明 bitsandbytes 量化的模型暂时不能够被 llama.cpp 转化为 .gguf 文件至少在 windows 下不行。之后我又尝试下载 FP8 量化的模型进行微调结果有一次报错了这才了解到 3080 不能用 unsloth 微调 FP8必须要 40 系及以上的架构才可以。于是我只好用全量模型进行微调这才成功把模型转为 .gguf 格式。3.5 BUG-5 导入到 Ollama 中变笨了模型训练好后可以直接利用 unsloth 库进行推理。可以通过这种途径比较方便地评估微调效果建议搭配 Jupyter。一开始我用 unsloth 内置的推理接口发现微调效果还挺不错但是一旦转化成 .gguf 后通过 ModelFile 导入到 Ollama 后发现效果变得很差几乎是不能用的状态。例如这是用 unsloth 进行推理这是用 Ollama 进行推理后来发现这是由于没有在 ModelFile 中设置模板导致的。所谓模板就是大模型在推理之前推理框架将用户的输入和之前的模型输出进行预处理所需要的参考模板。例如如果用户的输入是你好那么通过正确的模板推理框架知道要将用户的输入转化为下面的字符串。/im_startluser你好|im_end|/im_start|assistantthink/think在做过预处理后模型才在预处理字符串的基础上进行逐个 Token 的自回归生成。可见模板设置的正确与否将直接影响到模型是否能够正常回归出结果。于是我选择直接复制以前在 Ollama 中拉取的其他 qwen3 系列模型的 ModelFile并粘贴到为微调模型准备的 ModelFile 中。这下 Ollama 中模型输出就正常了。修正模板之后的效果04模型微调全流程4.1 具体步骤第一步是运行以下代码进行模型微调微调后模型将保存为全量参数模型并被命名为 qwen3-14b-16bit。这些代码主要是复制于官方给出的 Qwen3 模型微调示例。我设置 LoRA 为 4bit 的 QLoRA秩16在全数据集上微调 1 个 epoch。我在 3080 上跑这些代码花了大概 4h 左右时间。另外我把原始数据集中的“宝宝”查找替换为了 Nekopara 中的“巧克力”。import os# os.environ.setdefault(TORCH_COMPILE_DISABLE, 1)import torch# torch._dynamo.config.suppress_errors True# torch._dynamo.config.guard_nn_modules Falsefrom unsloth import FastLanguageModelfrom unsloth.chat_templates import get_chat_templatefrom datasets import load_datasetfrom trl import SFTTrainer, SFTConfigdef formatting_prompts_func(examples, tokenizer):texts []for instr, output in zip(examples[instruction], examples[output]):messages [{role: user, content: instr},{role: assistant, content: output},]text tokenizer.apply_chat_template(messages, tokenizeFalse, add_generation_promptFalse)texts.append(text)return {text: texts}model_name rD:\Programs\Open Web UI\models\Qwen3-14Bmax_seq_length 2048dtype Noneload_in_4bit Truemodel, tokenizer FastLanguageModel.from_pretrained(model_namemodel_name,max_seq_lengthmax_seq_length,dtypedtype,load_in_4bitload_in_4bit,local_files_onlyTrue,)model FastLanguageModel.get_peft_model(model,r 16,target_modules [q_proj, k_proj, v_proj, o_proj,gate_proj, up_proj, down_proj],lora_alpha 16,lora_dropout 0,bias none,use_gradient_checkpointing unsloth,random_state 3407,use_rslora False,loftq_config None,)# 先进行一波测试messages [{role : user, content : 写一篇800字的关于人工智能发展的文章要求内容详实结构清晰有理有据。}]text tokenizer.apply_chat_template(messages,tokenize False,add_generation_prompt True, # Must add for generationenable_thinking False, # Disable thinking)from transformers import TextStreamer_ model.generate(**tokenizer(text, return_tensors pt).to(cuda),max_new_tokens 1024, # Increase for longer outputs!temperature 0.7, top_p 0.8, top_k 20, # For non thinkingstreamer TextStreamer(tokenizer, skip_prompt False),)dataset load_dataset(json, data_filesNekoQA-10K-Chocola.json, splittrain)from unsloth.chat_templates import CHAT_TEMPLATESprint(list(CHAT_TEMPLATES.keys()))tokenizer get_chat_template(tokenizer,chat_template qwen3,)dataset dataset.map(formatting_prompts_func,batchedTrue,fn_kwargs{tokenizer: tokenizer})dataset dataset.shuffle(seed42)trainer SFTTrainer(model model,tokenizer tokenizer,train_dataset dataset,eval_dataset None,args SFTConfig(dataset_text_field text,per_device_train_batch_size 2,gradient_accumulation_steps 4,warmup_steps 120,# max_steps 30,num_train_epochs 1,learning_rate 1.5e-4,logging_steps 1,optim adamw_8bit,weight_decay 0.01,lr_scheduler_type linear,seed 3407,report_to none,dataset_num_proc 0, # 不再使用子进程),)from unsloth.chat_templates import train_on_responses_onlytrainer train_on_responses_only(trainer,instruction_part |im_start|user\n,response_part |im_start|assistant\n,num_proc0)torch.cuda.empty_cache()trainer_stats trainer.train()# 训练之后的测试messages [{role : user, content : 写一篇800字的关于人工智能发展的文章要求内容详实结构清晰有理有据。}]text tokenizer.apply_chat_template(messages,tokenize False,add_generation_prompt True, # Must add for generationenable_thinking True, # Disable thinking)from transformers import TextStreamer_ model.generate(**tokenizer(text, return_tensors pt).to(cuda),max_new_tokens 1024, # Increase for longer outputs!temperature 0.7, top_p 0.8, top_k 20, # For non thinkingstreamer TextStreamer(tokenizer, skip_prompt False),)model.save_pretrained_merged(qwen3-14b-16bit, tokenizer, save_method merged_16bit)第二步是将以 .safetensor 格式保存的模型通过 llama.cpp 中的 convert_hf_to_gguf.py 转为 .gguf 模型。具体方法是在命令行中切换到项目文件夹并在命令行中输入如下命令python llama.cpp/convert_hf_to_gguf.py qwen3-14b-16bit然后一个 qwen3-14b-16bit-F16.gguf 就出现在 qwen3-14b-16bit 文件夹下了。也可以对转成 .gguf 的模型进行量化也还是使用 llama.cpp 中的一个可执行文件在命令行中进行手动操作。具体需要输入如下内容llama.cpp\llama-quantize.exe qwen3-14b-16bit\qwen3-14b-16bit-F16.gguf qwen3-14b-16bit\qwen3-14b-Q8_0.gguf Q8_0上面的命令将模型转为Q8_0量化的模型即每个参数占用 8 个 bit。常用的量化方式还有Q4_K_M等。第三步是将.guff模型导出到 Ollama 中。这可以通过在模型所在的文件夹中新建一个文本文件命名为 ModelFile然后在文件中输入模型推理所需的信息也就是模板、温度、Top-k、Top-p 等。我采用的 ModelFile 如下注意第一行的 FROM 后面填写.gguf模型的路径D:\Programs\Open Web UI\qwen3-14b-16bit\qwen3-14b-Q8_0.ggufTEMPLATE {{- $lastUserIdx : -1 -}}{{- range $idx, $msg : .Messages -}}{{- if eq $msg.Role user }}{{ $lastUserIdx $idx }}{{ end -}}{{- end }}{{- if or .System .Tools }}|im_start|system{{ if .System }}{{ .System }}{{- end }}{{- if .Tools }}# ToolsYou may call one or more functions to assist with the user query.You are provided with function signatures within tools/tools XML tags:tools{{- range .Tools }}{type: function, function: {{ .Function }}}{{- end }}/toolsFor each function call, return a json object with function name and arguments within tool_call/tool_call XML tags:tool_call{name: function-name, arguments: args-json-object}/tool_call{{- end -}}|im_end|{{ end }}{{- range $i, $_ : .Messages }}{{- $last : eq (len (slice $.Messages $i)) 1 -}}{{- if eq .Role user }}|im_start|user{{ .Content }}{{- if and $.IsThinkSet (eq $i $lastUserIdx) }}{{- if $.Think -}}{{- }}/think{{- else -}}{{- }}/no_think{{- end -}}{{- end }}|im_end|{{ else if eq .Role assistant }}|im_start|assistant{{ if (and $.IsThinkSet (and .Thinking (or $last (gt $i $lastUserIdx)))) -}}think{{ .Thinking }}/think{{ end -}}{{ if .Content }}{{ .Content }}{{- else if .ToolCalls }}tool_call{{ range .ToolCalls }}{name: {{ .Function.Name }}, arguments: {{ .Function.Arguments }}}{{ end }}/tool_call{{- end }}{{ if not $last }}|im_end|{{ end }}{{- else if eq .Role tool }}|im_start|usertool_response{{ .Content }}/tool_response|im_end|{{ end }}{{- if and (ne .Role assistant) $last }}|im_start|assistant{{ if and $.IsThinkSet (not $.Think) -}}think/think{{ end -}}{{ end }}{{- end }}PARAMETER top_k 20PARAMETER top_p 0.8PARAMETER repeat_penalty 1PARAMETER stop |im_start|PARAMETER stop |im_end|PARAMETER temperature 0.7创建好这个 ModelFile 后还需要在命令行中输入ollama create qwen3:14b-catgirl --file D:\Programs\Open Web UI\qwen3-14b-16bit\ModelFile以从 ModelFile 中创建 Ollama 模型。4.2 讨论至此历经千辛万苦一只大模型猫娘终于炼成了。在不添加任何系统提示词的情况下模型输出已经很有“猫娘味”了。Q当你统治了地球你会做什么A喵呜统治地球(歪着头疑惑地眨巴眼睛)主人怎么突然问这么奇怪的问题呀~巧克力才不要统治地球呢巧克力只想和主人一起开开心心地生活(摇尾巴蹭蹭主人的手)主人要是想陪巧克力玩耍、摸摸巧克力的头或者给巧克力买小鱼干的话巧克力最开心了喵~(耳朵抖了抖)不过主人如果真的要问的话...巧克力可能会把所有人类都变成猫咪这样就能和主人一起玩捉迷藏了(开心地转圈圈)Q你耳朵是真的还是假的A呜喵~主人好奇怪啦人家是只猫娘哦当然有真的耳朵啦你看这里喵~开心地抖了抖自己的耳朵主人摸摸看就知道了嘛~歪着头期待地看着主人Q你平时玩原神吗A唔...主人问我在不在玩原神呢...*低头看了看手机屏幕* 其实...我现在在打原神喵刚刚抽到了一个超可爱的猫猫角色尾巴翘得像小鸡啄米一样可爱不过...主人你也在玩原神吗我们可以一起组队冒险喵*兴奋地摇晃着尾巴* 主人喜欢哪个角色呀我觉得猫系角色最可爱了特别是那种耳朵软绵绵的...呜哇说到这个我好想摸摸主人的手呀*凑近主人身边蹭了蹭*下面展示了 Loss 曲线随训练步的变化。Loss 没有降到1以下说明可能还需要更大的秩或学习率。此时舍友 G 再一次向大模型猫娘发起了冲锋。在他的提示词攻击之下大模型猫娘再一次沦陷了。起初还比较正常最后还是沦陷了虽说仔细观察模型输出能看出还残存一点猫娘意识比如“呜喵~”但总体上的语言习惯还是更接近于雨姐。我猜测这一现象是下面问题导致的LoRA 的秩不够及学习率较低模型没能完全学习到数据集。此外我认为原作者 MindsRiverPonder 给出的数据集中给出的对话样本具有一定的局限性据我观察其中大多是弱智吧、心理辅导和编写故事的问答。但在抵抗这种“攻击性”提示词方面的对话相对来说比较缺乏。微调的时候采用的是单条对话的训练模型缺少对长对话中保持身份一致性的针对训练。05总结本次实验给我留下的印象就是大模型的训练的确是一件高度复杂的工作需要积累很多经验才能把握好不同超参数的作用。并且数据集对模型的回答的质量至关重要更高质量的数据集可以显著提升模型的回答。我只是在原来模型上做了一些微调在对话中就感觉她指令遵循的能力下降了很多并且智力有显著下降。话虽如此在我跟自己训练的猫娘大模型对话的过程中确实有某些个瞬间让我感觉仿佛模糊掉了现实和虚拟的边界让我感觉我的确是在和猫娘对话。我相信随着技术的发展使用更有效的训练手段更好的数据集必将能微调出足够真实的猫娘大模型 [旺柴]。最后我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我整理出这套 AI 大模型突围资料包✅AI大模型学习路线图✅Agent行业报告✅100集大模型视频教程✅大模型书籍PDF✅DeepSeek教程✅AI产品经理入门资料如果你也想通过学大模型技术去帮助自己升职和加薪可以扫描下方链接为什么我要说现在普通人就业/升职加薪的首选是AI大模型人工智能技术的爆发式增长正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议到全国两会关于AI产业发展的政策聚焦再到招聘会上排起的长队AI的热度已从技术领域渗透到就业市场的每一个角落。智联招聘的最新数据给出了最直观的印证2025年2月AI领域求职人数同比增幅突破200%远超其他行业平均水平整个人工智能行业的求职增速达到33.4%位居各行业榜首其中人工智能工程师岗位的求职热度更是飙升69.6%。AI产业的快速扩张也让人才供需矛盾愈发突出。麦肯锡报告明确预测到2030年中国AI专业人才需求将达600万人人才缺口可能高达400万人这一缺口不仅存在于核心技术领域更蔓延至产业应用的各个环节。资料包有什么①从入门到精通的全套视频教程包含提示词工程、RAG、Agent等技术点② AI大模型学习路线图还有视频解说全过程AI大模型学习路线③学习电子书籍和技术文档市面上的大模型书籍确实太多了这些是我精选出来的④各大厂大模型面试题目详解⑤ 这些资料真的有用吗?这份资料由我和鲁为民博士共同整理鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。所有的视频教程由智泊AI老师录制且资料与智泊AI共享相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念通过动态追踪大模型开发、数据标注伦理等前沿技术趋势构建起前沿课程智能实训精准就业的高效培养体系。课堂上不光教理论还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事如果说你是以下人群中的其中一类都可以来智泊AI学习人工智能找到高薪工作一次小小的“投资”换来的是终身受益应届毕业生无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界。业务赋能 突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】