四川省建设厅网站网站侧栏软件排行榜怎么做的

张小明 2026/1/10 18:37:58
四川省建设厅网站,网站侧栏软件排行榜怎么做的,泰安市人才交流服务中心,产品推广员一、大模型基础篇#xff08;5题#xff09; 01#xff5c;什么是 Transformer#xff1f;它的核心组件有哪些#xff1f; 参考答案#xff1a; Transformer 是一种基于注意力机制的神经网络架构#xff0c;由 Google 在 2017 年提出#xff0c;是大模型的基础架构。…一、大模型基础篇5题01什么是 Transformer它的核心组件有哪些参考答案Transformer 是一种基于注意力机制的神经网络架构由 Google 在 2017 年提出是大模型的基础架构。核心组件Self-Attention自注意力机制• 允许模型在处理序列时关注所有位置的信息• 计算 Query、Key、Value 三个矩阵• 公式Attention(Q, K, V) softmax(QK^T / √d_k) VMulti-Head Attention多头注意力• 将注意力机制并行执行多次• 每个头学习不同的表示子空间• 最后拼接所有头的输出Position Encoding位置编码• 为序列添加位置信息• 可以是固定的正弦位置编码也可以是可学习的位置嵌入Feed-Forward Network前馈网络• 两层全连接网络• 通常包含激活函数如 ReLU 或 GELULayer Normalization层归一化• 对每层的输入进行归一化• 提高训练稳定性残差连接• 解决深层网络的梯度消失问题应用场景GPT、BERT、T5 等大模型都基于 Transformer 架构。02Self-Attention 和 Cross-Attention 的区别是什么参考答案Self-Attention自注意力• Query、Key、Value 都来自同一个输入序列• 用于编码器Encoder中让序列中的每个位置都能关注到整个序列的信息• 例如BERT 中的 Self-Attention 让每个词都能关注到句子中的所有词Cross-Attention交叉注意力• Query 来自一个序列Key 和 Value 来自另一个序列• 用于解码器Decoder中让解码器关注编码器的输出• 例如在机器翻译中解码器的 Query 关注编码器输出的 Key 和 Value关键区别• Self-Attention同一序列内部的信息交互• Cross-Attention不同序列之间的信息交互03Layer Normalization 和 Batch Normalization 的区别参考答案Batch Normalization批归一化• 在 batch 维度上归一化• 对每个特征通道计算整个 batch 的均值和方差• 公式BN(x) γ * (x - μ_B) / √(σ²_B ε) β• 优点训练稳定允许更大的学习率• 缺点batch size 小时效果差不适合 RNN/TransformerLayer Normalization层归一化• 在特征维度上归一化• 对每个样本计算该层所有特征的均值和方差• 公式LN(x) γ * (x - μ_L) / √(σ²_L ε) β• 优点不依赖 batch size适合序列模型• 缺点在 CNN 中效果不如 BN为什么 Transformer 用 Layer Normalization• Transformer 处理的是变长序列batch 中序列长度不同• Layer Normalization 对每个样本独立归一化不受 batch 影响• 训练更稳定适合序列到序列的任务04Transformer 中的位置编码是如何工作的参考答案问题Transformer 没有循环结构无法感知序列顺序需要位置编码来注入位置信息。两种位置编码方式正弦位置编码Sinusoidal Position Encoding• 固定的、不可学习的位置编码• 公式plaintextPE(pos, 2i) sin(pos / 10000^(2i/d_model))PE(pos, 2i1) cos(pos / 10000^(2i/d_model))• 优点可以处理比训练时更长的序列• 缺点固定的无法学习任务特定的位置模式可学习的位置嵌入Learned Position Embedding• 将位置编码作为可学习的参数• 每个位置有一个可学习的向量• 优点可以学习任务特定的位置模式• 缺点只能处理训练时见过的最大长度应用• GPT 使用可学习的位置嵌入• BERT 使用可学习的位置嵌入• 一些新模型如 RoPE使用旋转位置编码05什么是 Tokenizer常见的 Tokenizer 有哪些参考答案Tokenizer分词器是将文本转换为模型可以处理的 Token 序列的工具。常见 Tokenizer 类型Word-level词级• 按空格分词每个词一个 token• 缺点词汇表大OOV未登录词问题严重Character-level字符级• 每个字符一个 token• 优点词汇表小无 OOV 问题• 缺点序列长语义信息丢失Subword-level子词级⭐ 最常用•BPEByte Pair EncodingGPT、GPT-2 使用•WordPieceBERT 使用•SentencePieceT5、mT5 使用• 优点平衡词汇表大小和语义信息BPE 工作原理初始化将文本拆分为字符迭代找到出现频率最高的字符对合并为一个新 token重复直到达到预设的词汇表大小为什么需要 Tokenizer• 模型只能处理数字需要将文本转换为 token ID• 不同语言的分词方式不同• 合理的分词可以提升模型性能一直在更新更多的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】二、大模型微调篇5题06什么是 LoRA它的原理是什么参考答案LoRALow-Rank Adaptation是一种参数高效微调方法通过低秩矩阵分解来减少可训练参数。核心思想• 冻结预训练模型的参数• 在原始权重旁添加低秩矩阵进行微调• 前向传播W W BA其中 B 和 A 是低秩矩阵数学原理• 原始权重矩阵 Wd × d• 低秩分解W W B × A• Bd × rr 是秩通常 r d• Ar × d• 参数量从d²减少到2rd优点• 参数量大幅减少通常减少 99%• 显存占用低训练速度快• 可以保存多个 LoRA 适配器切换方便• 效果接近全量微调应用场景• 多任务学习为不同任务训练不同的 LoRA 适配器• 个性化模型为不同用户训练不同的 LoRA• 资源受限环境GPU 显存不足时使用07全量微调、LoRA、QLoRA 的区别参考答案方法参数量显存占用训练速度效果全量微调100%高慢最好LoRA0.1-1%低快接近全量QLoRA0.1-1%极低中等接近全量全量微调Full Fine-tuning• 更新所有模型参数• 需要大量显存7B 模型需要 40GB• 训练时间长• 效果最好但容易过拟合LoRA• 只训练低秩矩阵• 显存占用低7B 模型需要 16GB• 训练速度快• 效果接近全量微调QLoRAQuantized LoRA• LoRA 量化4-bit• 显存占用极低7B 模型只需要 6GB• 可以在消费级 GPU 上训练• 效果几乎不损失选择建议• 显存充足全量微调• 显存中等LoRA• 显存不足QLoRA08什么是 SFTSupervised Fine-Tuning它的作用是什么参考答案SFTSupervised Fine-Tuning监督微调是在预训练模型基础上使用标注数据进行有监督学习的微调方法。作用任务适配让模型适应特定任务如对话、问答、代码生成行为对齐让模型输出符合人类期望的格式和风格能力增强在特定领域提升模型性能训练数据格式• 输入-输出对(prompt, response)• 例如plaintext输入什么是机器学习输出机器学习是人工智能的一个分支…训练过程使用预训练模型作为初始化在标注数据上计算损失通常是交叉熵反向传播更新参数与预训练的区别•预训练无监督学习学习语言知识•SFT有监督学习学习任务特定的行为应用场景• 对话模型ChatGPT、Claude 等• 代码生成Codex、GitHub Copilot• 特定领域医疗、法律等垂直领域09什么是 RLHF它的三个步骤是什么参考答案RLHFReinforcement Learning from Human Feedback人类反馈强化学习是一种通过人类反馈来优化模型输出的方法。三个步骤步骤 1监督微调SFT• 使用高质量的标注数据微调预训练模型• 让模型学会基本的任务格式和行为• 例如让模型学会如何回答问题步骤 2奖励模型训练Reward Model• 收集人类对模型输出的偏好数据• 训练一个奖励模型来预测人类偏好• 输入模型输出输出奖励分数• 例如回答 A 比回答 B 更好 → 给 A 更高分数步骤 3强化学习优化PPO• 使用奖励模型作为奖励信号• 使用 PPOProximal Policy Optimization算法优化模型• 目标最大化奖励模型的分数• 约束避免模型偏离 SFT 模型太远KL 散度约束为什么需要 RLHF• 很多任务难以用损失函数定义如创意写作、对话• 人类偏好比简单的准确率更能反映任务目标• 可以让模型输出更符合人类期望应用• ChatGPT、Claude 等对话模型• 创意写作、代码生成等开放性任务10PEFT 有哪些方法各有什么特点参考答案PEFTParameter-Efficient Fine-Tuning参数高效微调是一类只更新少量参数就能达到良好微调效果的方法。主要方法Adapter适配器• 在 Transformer 层之间插入小的全连接层• 只训练 Adapter 参数冻结原始模型• 优点简单直接• 缺点增加推理延迟LoRALow-Rank Adaptation⭐ 最流行• 使用低秩矩阵分解• 优点不增加推理延迟效果好• 缺点需要选择合适的 rankPrefix Tuning• 在输入前添加可学习的 prefix tokens• 优点不修改模型结构• 缺点需要较长的 prefixPrompt Tuning• 类似 Prefix Tuning但只优化 soft prompts• 优点最简单• 缺点效果相对较差P-Tuning v2• 在每一层都添加可学习的 prompts• 优点效果比 Prompt Tuning 好• 缺点需要更多参数对比方法参数量推理延迟效果使用难度Adapter中等增加好中等LoRA少不增加最好简单Prefix Tuning少不增加好中等Prompt Tuning最少不增加中等简单P-Tuning v2少不增加好中等推荐大多数场景推荐使用 LoRA效果和效率的平衡最好。三、RAG 检索增强生成篇5题11什么是 RAG它的工作原理是什么参考答案RAGRetrieval-Augmented Generation检索增强生成是一种结合检索和生成的方法通过检索外部知识库来增强大模型的生成能力。工作原理文档处理• 将知识库文档切分成 chunks文本块• 使用 Embedding 模型将 chunks 转换为向量• 存储到向量数据库中检索阶段• 用户提问时将问题转换为向量• 在向量数据库中检索最相关的 chunksTop-K• 使用相似度计算如余弦相似度生成阶段• 将检索到的 chunks 作为上下文• 将问题 上下文一起输入大模型• 大模型基于上下文生成答案优点• 解决大模型知识更新慢的问题• 减少幻觉Hallucination• 可以引用具体文档来源• 不需要重新训练模型缺点• 检索质量影响最终效果• 需要维护向量数据库• 可能检索到不相关信息应用场景• 企业知识库问答• 法律、医疗等专业领域问答• 文档智能助手12RAG 的文本分块Chunking策略有哪些参考答案文本分块是 RAG 的关键步骤直接影响检索质量。常见策略固定长度分块Fixed-size Chunking• 按固定字符数或 token 数切分• 优点简单、快速• 缺点可能切断语义完整的句子• 适用结构化文档句子分块Sentence Chunking• 按句子边界切分• 优点保持语义完整性• 缺点句子长度差异大• 适用自然语言文档段落分块Paragraph Chunking• 按段落切分• 优点语义最完整• 缺点可能过长超出模型上下文• 适用结构化文档滑动窗口分块Sliding Window• 固定大小 重叠区域• 优点避免边界信息丢失• 缺点存储空间增加• 适用长文档语义分块Semantic Chunking• 使用 Embedding 模型按语义相似度切分• 优点最符合语义边界• 缺点计算成本高• 适用复杂文档最佳实践• 块大小通常 200-500 tokens• 重叠10-20% 的重叠区域• 根据文档类型选择策略• 可以组合多种策略13RAG 中如何优化检索质量参考答案检索质量是 RAG 效果的关键可以从多个维度优化1. Embedding 模型优化• 使用领域相关的 Embedding 模型• 微调 Embedding 模型适配任务• 使用多向量 Embedding如 ColBERT2. 检索策略优化•混合检索结合向量检索和关键词检索BM25•重排序Rerank使用 Cross-Encoder 对检索结果重排•多路召回使用多个检索策略然后融合结果3. 查询优化•查询扩展使用大模型扩展用户查询•查询改写将问题改写为更适合检索的形式•多轮查询根据上下文生成多个查询4. 负样本挖掘• 使用 Hard Negative Mining• 选择相似但不相关的文档作为负样本• 提升模型的区分能力5. 检索数量优化• 动态调整 Top-K 数量• 根据查询复杂度选择不同的 K• 使用自适应检索6. 元数据过滤• 使用文档的元数据时间、作者、类别等过滤• 提升检索的精确度评估指标• RecallK前 K 个结果中包含正确答案的比例• MRRMean Reciprocal Rank平均倒数排名• NDCG归一化折损累积增益14什么是 RAG-Fusion它如何提升 RAG 效果参考答案RAG-Fusion是一种改进的 RAG 方法通过生成多个查询并融合检索结果来提升效果。工作原理查询生成• 使用大模型根据原始查询生成多个相关查询• 例如原始查询如何优化 Python 性能• 生成“Python 性能优化方法”、“提升 Python 运行速度”、“Python 代码优化技巧”多路检索• 对每个生成的查询分别进行向量检索• 每个查询得到 Top-K 个结果结果融合• 使用 Reciprocal Rank FusionRRF算法融合结果• RRF 公式score(d) Σ 1/(k rank_i(d))• 其中 k 是常数通常为 60rank_i 是文档在第 i 个查询中的排名重排序• 对融合后的结果进行重排序• 使用 Cross-Encoder 或大模型重排优点• 解决查询表达不准确的问题• 从多个角度检索相关信息• 提升检索的召回率Recall缺点• 计算成本增加多次检索• 需要更多时间适用场景• 复杂查询• 需要多角度信息的任务• 对召回率要求高的场景15Graph RAG 是什么它相比传统 RAG 有什么优势参考答案Graph RAG是基于知识图谱的 RAG 方法将文档转换为知识图谱利用图结构进行检索和推理。工作原理知识图谱构建• 从文档中提取实体、关系、属性• 构建知识图谱节点实体边关系• 例如“Python” -[是]- “编程语言”图检索• 在知识图谱中检索相关实体和关系• 使用图遍历算法如随机游走、PageRank• 可以找到多跳关系上下文构建• 将检索到的子图转换为文本• 包含实体、关系、属性信息生成答案• 将图结构化的上下文输入大模型• 生成基于知识图谱的答案优势结构化知识• 知识图谱是结构化的比纯文本更易理解• 可以表示复杂的实体关系多跳推理• 可以沿着图结构进行多跳推理• 例如A 认识 BB 认识 C → A 可能认识 C关系理解• 明确表示实体之间的关系• 比向量相似度更能理解语义关系可解释性• 可以展示推理路径• 更容易解释答案来源缺点• 构建知识图谱成本高• 需要实体识别和关系抽取模型• 对非结构化文档效果有限适用场景• 结构化知识库• 需要关系推理的任务• 企业知识图谱四、推理优化篇3题16什么是 KV Cache它如何加速推理参考答案KV CacheKey-Value Cache是一种推理优化技术通过缓存已计算的 Key 和 Value 矩阵来避免重复计算。问题背景• Transformer 的自注意力机制需要计算 Q、K、V• 在自回归生成中每次生成新 token 时之前的所有 token 都需要重新计算• 导致大量重复计算工作原理首次计算• 计算所有 token 的 K 和 V 矩阵• 将 K 和 V 缓存起来后续生成• 只计算新 token 的 K 和 V• 从缓存中读取之前 token 的 K 和 V• 拼接后计算注意力加速效果• 计算量从 O(n²) 降低到 O(n)• 速度提升2-10 倍取决于序列长度• 显存占用增加约 50%需要存储 K、V实现细节# 伪代码if first_token: k_cache compute_k(input) v_cache compute_v(input)else: k_new compute_k(new_token) v_new compute_v(new_token) k_cache concat([k_cache, k_new]) v_cache concat([v_cache, v_new])优化技巧• 使用 Flash Attention 减少显存占用• 动态调整 cache 大小• 使用量化减少 cache 显存17大模型推理加速的方法有哪些参考答案推理加速是大模型应用的关键可以从多个维度优化1. 模型量化Quantization•INT8 量化将 FP16 转为 INT8显存减半•INT4 量化进一步压缩显存减少 75%•GPTQ、AWQ后训练量化方法• 优点显存占用大幅降低• 缺点可能损失精度2. 模型剪枝Pruning• 移除不重要的权重或神经元• 结构化剪枝移除整个通道• 非结构化剪枝移除单个权重• 优点模型更小推理更快• 缺点需要重新训练3. 知识蒸馏Knowledge Distillation• 用大模型教师训练小模型学生• 学生模型学习教师模型的输出分布• 优点小模型速度快效果接近大模型• 缺点需要训练过程4. 推理框架优化•vLLMPagedAttention高效管理 KV Cache•TensorRTNVIDIA 的推理优化框架•ONNX Runtime跨平台推理优化• 优点无需修改模型直接加速• 缺点需要适配不同硬件5. 批处理优化• 动态批处理将多个请求合并处理• 连续批处理新请求加入正在处理的批次• 优点提升 GPU 利用率• 缺点增加延迟6. 硬件加速• 使用专用 AI 芯片如 TPU、NPU• 使用多 GPU 并行推理• 使用 CPU 推理量化模型综合建议• 显存充足使用 FP16 KV Cache• 显存不足使用 INT8/INT4 量化• 追求极致速度使用 vLLM 量化• 边缘设备使用知识蒸馏 量化18什么是 Flash Attention它解决了什么问题参考答案Flash Attention是一种高效的自注意力算法通过分块计算和在线 softmax 来减少显存占用和加速计算。问题背景• 标准注意力需要存储完整的注意力矩阵O(n²)• 对于长序列如 32K tokens显存占用巨大• 例如32K 序列需要 32GB 显存存储注意力矩阵Flash Attention 的核心思想分块计算Tiling• 将 Q、K、V 分成多个块• 逐块计算注意力避免存储完整矩阵在线 Softmax• 使用在线算法计算 softmax• 不需要存储完整的注意力分数重计算Recomputation• 在反向传播时重新计算注意力• 用时间换空间优势•显存减少从 O(n²) 降低到 O(n)•速度提升减少内存访问提升计算效率•支持长序列可以处理 32K tokens 的序列数学原理• 标准注意力O softmax(QK^T / √d) V• Flash Attention分块计算在线 softmax应用• 长文本处理• 大模型训练和推理• 多模态模型图像文本限制• 需要特定的硬件支持如 A100• 实现复杂度较高五、其他重要知识点2题19什么是大模型幻觉Hallucination如何缓解参考答案大模型幻觉Hallucination是指模型生成与输入无关、不符合事实或逻辑错误的内容。类型事实性幻觉生成错误的事实信息逻辑幻觉生成逻辑矛盾的内容无关幻觉生成与输入无关的内容原因• 训练数据中的错误信息• 模型过度泛化• 缺乏事实核查机制• 上下文理解不足缓解方法RAG检索增强生成• 从外部知识库检索相关信息• 基于检索内容生成答案• 最有效的方法提示工程• 明确要求模型基于事实回答• 要求模型标注不确定的内容• 使用 Chain-of-Thought 让模型展示推理过程后处理验证• 使用事实核查模型验证答案• 检查答案与检索内容的一致性• 过滤明显错误的内容训练数据优化• 使用高质量、准确的数据训练• 减少训练数据中的错误信息• 使用人类反馈优化RLHF模型架构改进• 使用检索机制如 RAG• 增强模型的推理能力• 使用多模态信息验证评估指标•Faithfulness答案与源文档的一致性•Answer Relevance答案与问题的相关性•Context Precision检索上下文的质量20大模型训练中的显存优化策略有哪些参考答案显存优化是大模型训练的关键可以从多个维度优化1. 混合精度训练Mixed Precision• 使用 FP16/BF16 进行前向传播• 使用 FP32 进行梯度累积和优化器状态• 显存减少约 50%• 速度提升1.5-2 倍2. 梯度检查点Gradient Checkpointing• 不保存中间激活值反向传播时重新计算• 显存减少约 50%• 时间增加约 20%3. 参数高效微调PEFT• 使用 LoRA、Adapter 等方法• 只训练少量参数• 显存减少70-90%4. 数据并行Data Parallelism• 将 batch 分配到多个 GPU• 每个 GPU 处理部分数据• 显存每个 GPU 存储完整模型5. 模型并行Model Parallelism• 将模型层分配到多个 GPU• 每个 GPU 只存储部分模型• 显存每个 GPU 存储部分模型6. 流水线并行Pipeline Parallelism• 将模型分成多个阶段• 不同 GPU 处理不同阶段• 显存每个 GPU 存储一个阶段7. ZeROZero Redundancy Optimizer•ZeRO-1优化器状态分片•ZeRO-2梯度分片•ZeRO-3参数分片• 显存减少最多 8 倍ZeRO-38. 卸载Offloading• 将部分参数卸载到 CPU 内存• 需要时再加载到 GPU• 显存减少取决于卸载比例• 时间增加取决于通信速度9. 量化训练Quantized Training• 使用 INT8 或更低精度训练• 显存减少50-75%• 可能损失精度综合策略•小模型7B混合精度 LoRA•中等模型7B-13B混合精度 ZeRO-2 LoRA•大模型13B混合精度 ZeRO-3 模型并行 LoRA总结这 20 道面试题涵盖了大模型的核心知识点✅基础理论Transformer、Attention、Normalization 等✅微调方法LoRA、SFT、RLHF、PEFT 等✅RAG 技术检索增强生成、文本分块、检索优化等✅推理优化KV Cache、量化、Flash Attention 等✅实际问题幻觉问题、显存优化等学习建议理解每个概念的原理和数学基础掌握不同方法的优缺点和适用场景结合实际项目经验能够灵活应用关注最新的研究进展和最佳实践推荐资源• 论文Transformer、LoRA、RAG 等经典论文• 开源项目LangChain、LlamaIndex、vLLM 等• 实践动手实现简单的 RAG 系统、LoRA 微调等如何学习AI大模型大模型时代火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业”“谁的饭碗又将不保了”等问题热议不断。不如成为「掌握AI工具的技术人」毕竟AI时代谁先尝试谁就能占得先机想正式转到一些新兴的 AI 行业不仅需要系统的学习AI大模型。同时也要跟已有的技能结合辅助编程提效或上手实操应用增加自己的职场竞争力。但是LLM相关的内容很多现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学学习成本和门槛很高那么针对所有自学遇到困难的同学们我帮大家系统梳理大模型学习脉络将这份LLM大模型资料分享出来包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 有需要的小伙伴可以扫描下方二维码领取↓↓↓学习路线第一阶段 从大模型系统设计入手讲解大模型的主要方法第二阶段 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用第三阶段 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统第四阶段 大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统第五阶段 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型第六阶段 以SD多模态大模型为主搭建了文生图小程序案例第七阶段 以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。学会后的收获• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力• 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。1.AI大模型学习路线图2.100套AI大模型商业化落地方案3.100集大模型视频教程4.200本大模型PDF书籍5.LLM面试题合集6.AI产品经理资源合集获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

怎样建立个人网站3d游戏建模培训

Charticulator:打破传统图表设计的思维边界 【免费下载链接】charticulator Interactive Layout-Aware Construction of Bespoke Charts 项目地址: https://gitcode.com/gh_mirrors/ch/charticulator 在数据可视化的世界里,我们常常被束缚在预设的…

张小明 2026/1/10 4:07:13 网站建设

七彩建设集团官方网站西安注册公司官网

颠覆设计流程:Adobe Illustrator智能脚本的7大创意应用 【免费下载链接】illustrator-scripts Adobe Illustrator scripts 项目地址: https://gitcode.com/gh_mirrors/il/illustrator-scripts 在当今快节奏的设计环境中,效率已成为衡量设计师能力…

张小明 2026/1/9 23:19:47 网站建设

网站开发的高级阶段包括什么大连企业建站系统

Jupyter Notebook 中如何正确使用 Miniconda 自定义环境 在数据科学和机器学习的实际开发中,你是否遇到过这样的场景:明明已经在命令行里用 conda install torch 安装了 PyTorch,但在 Jupyter Notebook 里一运行 import torch 就报错&#xf…

张小明 2026/1/7 17:48:44 网站建设

网站设计兼职虾米WordPress

远程生理监测技术实战指南:基于rPPG-Toolbox的非接触式健康检测方案 【免费下载链接】rPPG-Toolbox rPPG-Toolbox: Deep Remote PPG Toolbox (NeurIPS 2023) 项目地址: https://gitcode.com/gh_mirrors/rp/rPPG-Toolbox 想象一下,你正在开发一个远…

张小明 2026/1/7 17:48:42 网站建设

企业综合型网站建设方案平面广告设计网站

ShopXO开源电商系统:从零开始的完整部署指南 【免费下载链接】ShopXO开源商城 🔥🔥🔥ShopXO企业级免费开源商城系统,可视化DIY拖拽装修、包含PC、H5、多端小程序(微信支付宝百度头条&抖音QQ快手)、APP、多仓库、多…

张小明 2026/1/7 20:34:08 网站建设