欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 房产 > 家装 > DeepSeek提示词实战大全:提示词合集和使用技巧

DeepSeek提示词实战大全:提示词合集和使用技巧

2025/6/30 18:21:00 来源:https://blog.csdn.net/zengzizi/article/details/147129384  浏览:    关键词:DeepSeek提示词实战大全:提示词合集和使用技巧

大家好,我是大 F,深耕AI算法十余年,互联网大厂技术岗。
知行合一,不写水文,喜欢可关注,分享AI算法干货、技术心得。
更多文章可关注《大模型理论和实战》《DeepSeek技术解析和实战》,一起探索技术的无限可能!

【数据集篇】更多阅读:

  1. 大语言模型常见任务及评测数据集汇总(一):70 余个数据集!_lcsts数据集-CSDN博客
  2. 大语言模型常见任务及评测数据集汇总(二):90个数据集!_ace02数据集-CSDN博客
  3. 大语言模型实战手册:文本生成任务中,常用数据集有哪些?_故事生成领域的数据集有哪些-CSDN博客
  4. 【数据集篇 】 多模态大模型 :65 个测试常用基准数据集+ 涵盖13个任务_多模态大模型数据集通讯目录是什么-CSDN博客
  5. 【数据集】多模态学习实战手册~20 余个常见任务及测试数据集_多模态通用任务-CSDN博客

【大模型篇】更多阅读:

  1. 【大模型篇】万字长文从OpenAI到DeepSeek:大模型发展趋势及原理解读-CSDN博客
  2. 【大模型篇】目前主流 AI 大模型体系全解析:架构、特点与应用_类似transformer、visualgpt,常见的模型架构及其作用领域介绍-CSDN博客
  3. 【大模型篇 】 Grok-3 与 DeepSeek 的技术架构与性能分析_grok-3的优劣势-CSDN博客
  4. 【大模型篇】速读版DeepSeek核心技术解密:与 GPT-4、Claude、LLaMA 技术路线差异对比分析_llama和deepseek的区别-CSDN博客
  5. 多模态大模型(LMMs)与大语言模型(LLMs)的比较_多模态大模型和大语言模型区别-CSDN博客

一、引言

DeepSeek 作为一款强大的 AI 大语言模型工具,凭借其高效、灵活的特点,受到了众多开发者和用户的青睐。本文将全面介绍 DeepSeek 的提示词合集、使用技巧以及代码实现方法,帮助读者更好地利用这一工具,提升工作效率和创造力。

二、DeepSeek 提示词合集

(一)代码处理

  1. 代码改写:优化代码,进行纠错、注释、调优等。
    • 示例:请对以下代码进行优化,提高运行效率:[代码片段]
对代码进行修改,来实现纠错、注释、调优等。
提示词USER	
下面这段的代码的效率很低,且没有处理边界情况。请先解释这段代码的问题与解决方法,然后进行优化:
def fib(n):if n <= 2:return nreturn fib(n-1) + fib(n-2)
样例输出
问题分析
这段代码实现了一个递归的斐波那契数列计算函数 fib(n)。虽然代码简洁,但它存在以下几个问题:
1. 重复计算:递归调用会导致大量的重复计算。例如,计算 fib(5) 时,fib(3) 和 fib(2) 会被多次计算,导致效率低下。
2. 边界情况处理不完善:虽然代码中处理了 n <= 2 的情况,但没有处理 n < 0 的情况。对于负数输入,函数会返回不正确的结果。
3. 递归深度限制:对于较大的 n,递归深度可能会超过 Python 的默认递归深度限制,导致 RecursionError。
解决方法
1. 使用记忆化(Memoization):通过缓存已经计算过的斐波那契数列值,避免重复计算,提高效率。
2. 处理边界情况:增加对 n < 0 的检查,并返回适当的错误信息或默认值。
3. 使用迭代代替递归:递归虽然简洁,但在处理大规模数据时效率较低。可以使用迭代方法来计算斐波那契数列,避免递归深度限制。
优化后的代码
方法一:记忆化递归
def fib(n, memo={}):if n < 0:raise ValueError("Input must be a non-negative integer")if n <= 2:return 1if n in memo:return memo[n]memo[n] = fib(n-1, memo) + fib(n-2, memo)return memo[n]
方法二:迭代法
def fib(n):if n < 0:raise ValueError("Input must be a non-negative integer")if n <= 2:return 1a, b = 1, 1for _ in range(3, n+1):a, b = b, a + breturn b
解释
1. 记忆化递归:○ 使用一个字典 memo 来存储已经计算过的斐波那契数列值。○ 在每次递归调用前,先检查 memo 中是否已经有结果,如果有则直接返回,避免重复计算。○ 处理了 n < 0 的情况,抛出 ValueError。
2. 迭代法:○ 使用两个变量 a 和 b 来保存前两个斐波那契数列值。○ 通过循环从 3 到 n 计算斐波那契数列值,避免了递归调用,提高了效率。○ 同样处理了 n < 0 的情况,抛出 ValueError。
总结
优化后的代码不仅提高了效率,还完善了边界情况的处理。记忆化递归和迭代法都是有效的优化手段,具体选择哪种方法取决于具体需求和场景。
代码
from openai import OpenAI
client = OpenAI(base_url="https://api.deepseek.com/",api_key="" )
completion = client.chat.completions.create(model="deepseek-chat",messages=[{"role": "user","content": "下面这段的代码的效率很低,且没有处理边界情况。请先解释这段代码的问题与解决方法,然后进行优化:\n``\ndef fib(n):\n    if n <= 2:\n        return n\n    return fib(n-1) + fib(n-2)\n``"}]
)
print(completion.choices[0].message.content)
  1. 代码解释:分析代码逻辑,帮助理解代码内容。
    • 示例:解释这段代码的作用:[代码片段]
对代码进行解释,来帮助理解代码内容。提示词
USER	
请解释下面这段代码的逻辑,并说明完成了什么功能:
```
// weight数组的大小 就是物品个数
for(int i = 1; i < weight.size(); i++) { // 遍历物品for(int j = 0; j <= bagweight;

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词