LLM实现金融文本匹配
发布于 2025-12-31
3.5 LLM实现金融文本匹配
Section titled “3.5 LLM实现金融文本匹配”基于Zero-shot方式实现LLM文本匹配
Section titled “基于Zero-shot方式实现LLM文本匹配”- 掌握Zero-shot方式下prompt的设计方式
- 掌握利用LLM实现文本匹配的代码
1 LLM信息抽取任务介绍
Section titled “1 LLM信息抽取任务介绍”- 首先,我们构造几个短文本对:
1.('股票市场今日大涨,投资者乐观。', '持续上涨的市场让投资者感到满意。'),2.('油价大幅下跌,能源公司面临挑战。', '未来智能城市的建设趋势愈发明显。'),3.('利率上升,影响房地产市场。', '高利率对房地产有一定冲击。'),- 我们期望模型能够帮我们识别出这 3 对句子中,哪几对描述的是相似的语言。
- 我们期望模型输出的结果为:
['相似', '不相似', '相似']2 Prompt设计
Section titled “2 Prompt设计”-
在该任务的 prompt 设计中,我们主要考虑 2 点:
-
需要向模型解释什么叫作「文本匹配任务」
-
需要让模型按照我们指定的格式输出
-
为了让模型知道什么叫做「文本匹配任务」,我们借用 Incontext Learning 的方式,先给模型展示几个正确的例子:
-
```
User: 句子一: 公司ABC发布了季度财报,显示盈利增长。\n句子二: 财报披露,公司ABC利润上升 Bot: 是 User:句子一: 黄金价格下跌,投资者抛售。\n句子二: 外汇市场交易额创下新高 Bot: 不是 … ```
其中,
User代表我们输入给模型的句子,Bot代表模型的回复内容。注意:上述例子中
Bot的部分也是由人工输入的,其目的是希望看到在看到类似User中的句子时,模型应当做出类似Bot的回答。
3 文本匹配任务代码实现
Section titled “3 文本匹配任务代码实现”- 本章节使用的模型为ChatGLM-6B,参数参数较大(6B),下载到本地大概需要 12G+ 的磁盘空间,请确保磁盘有充足的空间。此外,加载模型大概需要 13G 左右的显存,如果您显存不够,可以进行模型量化加载以缩小模型成本。
- 本次文本匹配任务实现的主要过程:
- 构造prompt
- 实现文本匹配
- 代码存放位置:/Users/***/PycharmProjects/llm/zero-shot/llm_text_matching.py
- llm_information_extraction.py脚本中包含三个函数:init_prompts()和inference()
3.1 导入必备的工具包
Section titled “3.1 导入必备的工具包”from rich import printfrom transformers import AutoTokenizer, AutoModel
import os
# 提供相似,不相似的语义匹配例子examples = { '是': [ ('公司ABC发布了季度财报,显示盈利增长。', '财报披露,公司ABC利润上升。'), ], '不是': [ ('黄金价格下跌,投资者抛售。', '外汇市场交易额创下新高。'), ('央行降息,刺激经济增长。', '新能源技术的创新。') ]}3.2 构建init_prompts()函数
Section titled “3.2 构建init_prompts()函数”- 目的:进行prompt设计
- 具体代码实现:
def init_prompts(): """ 初始化前置prompt,便于模型做 incontext learning。 """ pre_history = [ ( '现在你需要帮助我完成文本匹配任务,当我给你两个句子时,你需要回答我这两句话语义是否相似。只需要回答是否相似,不要做多余的回答。', '好的,我将只回答”是“或”不是“。' ) ]
for key, sentence_pairs in examples.items(): for sentence_pair in sentence_pairs: sentence1, sentence2 = sentence_pair pre_history.append(( f'句子一: {sentence1}\n句子二: {sentence2}\n上面两句话是相似的语义吗?', key ))
return {'pre_history': pre_history}3.3 构建inference()函数
Section titled “3.3 构建inference()函数”- 目的:模型实现信息匹配
- 具体代码实现
def inference( sentence_pairs: list, custom_settings: dict ): """ 推理函数。
Args: model (transformers.AutoModel): Language Model 模型。 sentence_pairs (List[str]): 待推理的句子对。 custom_settings (dict): 初始设定,包含人为给定的 few-shot example。 """ for sentence_pair in sentence_pairs: sentence1, sentence2 = sentence_pair sentence_with_prompt = f'句子一: {sentence1}\n句子二: {sentence2}\n上面两句话是相似的语义吗?' response, history = model.chat(tokenizer, sentence_with_prompt, history=custom_settings['pre_history']) print(f'>>> [bold bright_red]sentence: {sentence_pair}') print(f'>>> [bold bright_green]inference answer: {response}') # print(history)- 代码调用
if __name__ == '__main__': #device = 'cuda:0' device = 'cpu' tokenizer = AutoTokenizer.from_pretrained("./ChatGLM-6B/THUDM/chatglm-6b", trust_remote_code=True) #model = AutoModel.from_pretrained("./ChatGLM-6B/THUDM/chatglm-6b", # trust_remote_code=True).half().cuda() model = AutoModel.from_pretrained("./ChatGLM-6B/THUDM/chatglm-6b", trust_remote_code=True).float() model.to(device)
sentence_pairs = [ ('股票市场今日大涨,投资者乐观。', '持续上涨的市场让投资者感到满意。'), ('油价大幅下跌,能源公司面临挑战。', '未来智能城市的建设趋势愈发明显。'), ('利率上升,影响房地产市场。', '高利率对房地产有一定冲击。'), ]
custom_settings = init_prompts() inference( sentence_pairs, custom_settings )- 打印结果:

本章节主要介绍了如何利用Few-Shot方式基于ChatGLM-6B实现文本匹配任务。
发布于 2025-12-31