除了conda
外,在Linux
系统中,还可以使用Python
的venv
模块来创建Python
虚拟环境。该模块创建出来的Python
环境更加轻量化。
安装Python 3(如果尚未安装)
此步骤自行百度。
打开终端。
运行以下命令以创建虚拟环境:
1 | python3 -m venv myenv |
后台程序挂起。在使用Flask
、FastAPI
或Gradio
启动某些服务或API
时,往往会将当前会话变成服务监控状态,如果会话关闭会导致服务也随之关闭。
有的人可能会说,可以使用
nohup
将服务在后台执行,单是这样会生成额外的nohup.out
文件,并且无法实时观看服务运行状态。
多个窗口之间来回切换。在Linux
操作系统的使用过程中,可能会出现开启多个窗口的情况,随着窗口的逐步开启,自己都会忘记每个窗口有什么用,能不能关闭,管理起来非常麻烦。
终端工作环境可以实时保留,并且不会因会话关闭导致工作环境丢失。并且在不同设备上可以共享工作环境,不在拘泥于设备。
如果你也有以上烦恼,那么不妨试试Tmux
这款工具。
1 | import SimpleITK as sitk |
1 | import matplotlib.pyplot as plt |
1 | dcm_path = 'data/10009.dcm' |
1 | img = sitk.ReadImage(dcm_path) # 读取DCM文件 |
1 | img[img < 0] = 0 |
1 | # 绘制图片 |
1 | import cv2 |
1 | import matplotlib.pyplot as plt |
1 | name_list = os.listdir('data/person_data/') |
['baijingting', 'jiangwen', 'pengyuyan', 'zhangziyi', 'zhaoliying']
1 | from ChatModel import OllamaChat |
文本扩展是大语言模型的一个重要应用方向,它可以输入简短文本,生成更加丰富的长文。这为创作提供了强大支持,但也可能被滥用。因此开发者在使用时,必须谨记社会责任,避免生成有害内容。
在本章中,我们将学习基于LLM实现一个客户邮件自动生成的示例,用于根据客户反馈优化客服邮件。这里还会介绍“温度”(temperature)这一超参数,它可以控制文本生成的多样性。
需要注意,扩展功能只应用来辅助人类创作,而非大规模自动生成内容。开发者应审慎使用,避免产生负面影响。只有以负责任和有益的方式应用语言模型,才能发挥其最大价值。相信践行社会责任的开发者可以利用语言模型的扩展功能,开发出真正造福人类的创新应用。
1 | from ChatModel import OllamaChat |
设计高效 Prompt 的两个关键原则:
首先,Prompt 需要清晰明确地表达需求,提供充足上下文,使语言模型准确理解我们的意图,就像向一个外星人详细解释人类世界一样。过于简略的 Prompt 往往使模型难以把握所要完成的具体任务。
其次,让语言模型有充足时间推理也极为关键。就像人类解题一样,匆忙得出的结论多有失误。因此Prompt 应加入逐步推理的要求,给模型留出充分思考时间,这样生成的结果才更准确可靠。
如果 Prompt 在这两点上都作了优化,语言模型就能够尽可能发挥潜力,完成复杂的推理和生成任务。掌握这些 Prompt 设计原则,是开发者取得语言模型应用成功的重要一步。
1 | from ChatModel import OllamaChat |
1 | chat_model = OllamaChat(url="http://localhost:6006/api/chat", model_name='qwen:32b') |
1 | prompt = """ |