基础作业:
1. 使用 InternLM-Chat-7B 模型生成 300 字的小故事(需截图)
- 操作:(之前的下载和配置等工作在笔记和上课的文本内容已写,不多说)
- 让InternLM-Chat-7B模型生成了一个300字左右的推理悬疑主题的小故事,且让模型不要生成一些敏感词汇。
- 结果如下:图1和图2
- 个人感受:能快速完成要求的小故事脚本,但可能因为300字的限制,内容似乎有些不足。

图1

图2
2. 熟悉 hugging face 下载功能,使用 huggingface_hub
python 包,下载 InternLM-20B
的 config.json
文件到本地(需截图下载过程)。
- 操作:
- 首先在
/root/model
文件夹下建立了huggingface_hub_.py
脚本,脚本内容如下图3所示。脚本的目的是为了下载模型。
- 要注意python文件的命名不能和
hugging_hub
库同名,不然在后面from huggingface_hub import hf_hub_download
时,会因为和库的命名冲突,造成混淆。
- 在终端直接输入
python /root/model/huggingface_hub_.py
命令会有连接不上的问题,于是查了镜像站,在命令前面加上HF_ENDPOINT=https://hf-mirror.com
即可。
- 完整的命令:
HF_ENDPOINT=https://hf-mirror.com python /root/model/huggingface_hub_.py
- 执行命令后,会产生如图3中所示的进度条,进入下载等待时间。
- 等待真的很漫长,可以看到等到图4中显示的时候已经过了半个点了。
- 最后如图5所示,使用
python /root/model/show_hub_config.py
的命令,显示配置文件894B
- 使用 打印config.json里的内容,如图6所示。
- 个人感受:下载过程需耐心。连接不上查看镜像站或其他前辈的操作。

图3

图4

图5

图6
进阶作业(可选做)
1. 浦语·灵笔的图文理解及创作部署(需截图)
- 操作:
- 下载模型和本地映射在笔记和课件里已经讲过,不多说
- 注意,不能只使用平台上的一张gpu,会因为显存不足而造成页面error
- 输入题目后,会先生成文字,然后再下载和加载图片。图7是等待图片下载的过程
- 更换题目为“尘封多年的记忆再次打开”,生成新的图文内容,如图8-图9。
- 首先会创作文章,然后再下载图片。图片可以更换,搜索,上传,删除等等操作,如图10。
- 然后,进行图文理解部分,首先上传一张图片,然后用文字进行提问,我使用了一个日本漫画的封面作为图片,提问如图11所示。
- 个人感受:文字逻辑在线,不错,但就是等待图片加载的时间很长。图文理解方面可能还有不足,因为看不出图中另一个人是女生。

图7

图8