前言

使用方法

有空再写

直接上代码

import ollama

history = []
while True:
    user_input = input("\nYou: ")
    if user_input.lower() in ["exit", "quit","拜拜"]:
        break

    history.append([user_input, ""])

    messages = []
    for idx, (user_msg, model_msg) in enumerate(history):
        if idx == len(history) - 1 and not model_msg:
            messages.append({"role": "user", "content": user_msg})
            break
        if user_msg:
            messages.append({"role": "user", "content": user_msg})
        if model_msg:
            messages.append({"role": "assistant", "content": model_msg})

    # generate a response combining the prompt and data we retrieved in step 2
    output = ollama.chat(
        model="qwen2:72b",
        messages=messages
    )

    print(output['message']['content'])

欢迎大家点赞或收藏
大家的点赞或收藏可以鼓励作者加快更新哟~

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐