54 lines
1.2 KiB
Python
54 lines
1.2 KiB
Python
import openai
|
|
import os
|
|
from dotenv import load_dotenv
|
|
|
|
load_dotenv()
|
|
api_key = os.getenv("OPENAI_API_KEY")
|
|
|
|
openai.api_key = api_key
|
|
|
|
preguntas_anteriores = []
|
|
respuestas_anteriores = []
|
|
|
|
|
|
def preguntar_chat_gpt(prompt, modelo="text-davinci-002"):
|
|
"""
|
|
Pregunta a la API de OpenAI GPT-3
|
|
"""
|
|
|
|
respuesta = openai.Completion.create(
|
|
engine=modelo,
|
|
prompt=prompt,
|
|
n=1,
|
|
temperature=1,
|
|
max_tokens=150
|
|
)
|
|
|
|
return respuesta.choices[0].text.strip()
|
|
|
|
|
|
# Bienvenida
|
|
print("Bienvenido al chatbot de OpenAI GPT-3. \nEscribe \"salir\" cuando quieras terminar la conversación.")
|
|
|
|
# Loop para controlar el flujo de la conversación
|
|
while True:
|
|
|
|
conversacion_historica = ""
|
|
|
|
ingreso_usuario = input("\nTú: ")
|
|
|
|
if ingreso_usuario == "salir":
|
|
break
|
|
|
|
for pregunta, respuesta in zip(preguntas_anteriores, respuestas_anteriores):
|
|
conversacion_historica += f"Usuario pregunta: {pregunta}\nChatbot responde: {respuesta}\n"
|
|
|
|
prompt = f"Usuario pregunta: {ingreso_usuario}"
|
|
conversacion_historica += prompt
|
|
respuesta_gpt = preguntar_chat_gpt(conversacion_historica)
|
|
|
|
print(f"{respuesta_gpt}")
|
|
|
|
preguntas_anteriores.append(ingreso_usuario)
|
|
respuestas_anteriores.append(respuesta_gpt)
|