写点什么

遇见您的私人法律顾问:智能法律大模型,智能解答您的法律困惑

  • 2024-02-27
    浙江
  • 本文字数:1089 字

    阅读完需:约 4 分钟

遇见您的私人法律顾问:智能法律大模型,智能解答您的法律困惑

遇见您的私人法律顾问:智能法律大模型,智能解答您的法律困惑

为了让法律服务深入到每个人的身边,让更多的人能够得到法律帮助,开启了【律知】这个项目, 致力于打造一系列引领法律智能化的大模型。AI 法律模型是一位虚拟法律顾问,具备丰富的法律知识和技能,能够回答法律问题和提供法律建议。


语言模型



  • GLM-模型结果


dev set, single model, single-task finetuning



  • Seq2Seq


CNN/Daily Mail (test set, no additional data used)



XSum (test set, no additional data used)



  • Language Modeling


test set, zero-shot


2.快速使用部署

推出的语言模型支持 HuggingFace🤗


from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
hf_model = "law-llm/law-glm-10b"max_question_length = 64max_generation_length = 490
tokenizer = AutoTokenizer.from_pretrained( hf_model, cache_dir=model_cache_dir, use_fast=True, trust_remote_code=True)
model = AutoModelForSeq2SeqLM.from_pretrained( hf_model, cache_dir=model_cache_dir, trust_remote_code=True)
model = model.to('cuda')model.eval()
model_inputs = "提问: 犯了盗窃罪怎么判刑? 回答: [gMASK]"
model_inputs = tokenizer(model_inputs, max_length=max_question_length, padding=True, truncation=True, return_tensors="pt")
model_inputs = tokenizer.build_inputs_for_generation(model_inputs, targets=None, max_gen_length=max_generation_length, padding=True)
inputs = model_inputs.to('cuda')
outputs = model.generate(**inputs, max_length=max_generation_length, eos_token_id=tokenizer.eop_token_id)prediction = tokenizer.decode(outputs[0].tolist())
复制代码


3. 效果展示

3.1. 法律咨询示例

的模型能够提供法律咨询服务,在大部分情况下能够依据真实的法律法规生成有指导性的建议。


3.2. 失败案例

的模型还远不够完美.以下是一些失败案例, 模型在这些案例中给出的答案并不完全正确.正在分析模型的局限性,将继续推出更为强大, 准确的版本.



更多优质内容请关注公号:汀丶人工智能;会提供一些相关的资源和优质文章,免费获取阅读。

发布于: 刚刚阅读数: 5
用户头像

本博客将不定期更新关于NLP等领域相关知识 2022-01-06 加入

本博客将不定期更新关于机器学习、强化学习、数据挖掘以及NLP等领域相关知识,以及分享自己学习到的知识技能,感谢大家关注!

评论

发布
暂无评论
遇见您的私人法律顾问:智能法律大模型,智能解答您的法律困惑_人工智能_汀丶人工智能_InfoQ写作社区