git clone https://github.com/meta-llama/llama3
然后在根目录运行pip install -e .
去metallama官网登录使用下载该模型 https://llama.meta.com/llama-downloads/1. 注册登录,您将得到一个电子邮件的网址下载模型当你运行下载时,你需要这个网址,一旦你收到电子邮件,导航到你下载的骆驼存储库和运行下载2. 确保授予下载的执行权限3. 在此过程中,将提示您从邮件中输入URL4. 不要使用"复制链接"选项,而是要确保从电子邮件中手动复制链接本地运行torchrun --nproc_per_node 1 example_chat_completion.py \ --ckpt_dir Meta-Llama-3-8B-Instruct/ \ --tokenizer_path Meta-Llama-3-8B-Instruct/tokenizer.model \ --max_seq_len 512 --max_batch_size 6
注意事项:替换 Meta-Llama-3-8B-Instruct/ 你的检查站目录的路径Meta-Llama-3-8B-Instruct/tokenizer.model 找到了你的标记器模型.…–nproc_per_node 我们应该把它放在你所使用的模型的价值调整max_seq_len 和max_batch_size 必要时参数.这个例子运行了 example_chat_completion.py 在这个存储库中找到,但是你可以将它更改为不同的文件根据你本身的硬件来调整max_seq_len 和max_batch_size参数huggingface 平台下载可以通过huggingface 平台下载(需要先进入huggingface平台申请,同意它的条款,)然后先安装huggingface工具pip install huggingface-hub
然后指定meta-llama/Meta-Llama-3-8B-Instructhuggingface-cli download meta-llama/Meta-Llama-3-8B-Instruct --include “original/” --local-dir meta-llama/Meta-Llama-3-8B-Instruct
然后transformer的使用import transformersimport torchmodel_id = "meta-llama/Meta-Llama-3-8B-Instruct"pipeline = transformers.pipeline( "text-generation", model="meta-llama/Meta-Llama-3-8B-Instruct", model_kwargs={"torch_dtype": torch.bfloat16}, device="cuda", )
如果没有gpu的同学可以使用cpu device=cuda,计算性能会差一些完整的使用方式:import transformersimport torchmodel_id = "meta-llama/Meta-Llama-3-8B-Instruct"pipeline = transformers.pipeline( "text-generation", model=model_id, model_kwargs={"torch_dtype": torch.bfloat16}, device_map="auto",)messages = [ {"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"}, {"role": "user", "content": "Who are you?"},]prompt = pipeline.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True)terminators = [ pipeline.tokenizer.eos_token_id, pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")]outputs = pipeline( prompt, max_new_tokens=256, eos_token_id=terminators, do_sample=True, temperature=0.6, top_p=0.9,)print(outputs[0]["generated_text"][len(prompt):])
基于ollama使用:目前推荐使用ollama的8b,70b,instruct, text 其他量化模型是别的用户微调过的,建议使用原生的llama3. 执行:ollama run llama3:instruct
或者ollama run llama3 (ollama pull llama3:8b)
测试llama3的生成速度非常快,至少是llama2的两倍,如果有强大的显存支持效率会更高总结llama3在llama2的基础上实现了质的飞跃,已经超过chat3.5的性能,并且他的预训练和微调是目前市面上开源的参数规模最好的,不仅是对于开发者还有企业使用者,这都是非常合适的一个模型下表显示了我们的评估结果与Claude Sonnet、Mistral Medium和GPT-3.5相比,在这些类别和提示上的汇总结果在未来的大模型道路上,选择最优秀的模型往往是我们第一步需要考虑的事情(图片来源网络,侵删)
0 评论