# arquivo: /var/www/html/cagpublico/cag/projeto/gerar_respostas_rapidas_embeddings.py

import openai
import json
from dotenv import load_dotenv
import os
import sys
from openai import OpenAI
# Força o path da pasta atual para importar o arquivo de respostas
sys.path.append("/var/www/html/cagpublico/cag/projeto")

# Carrega chave da OpenAI do .env
load_dotenv("/var/www/html/cagpublico/.env")
openai.api_key = "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"

# Inicializa o cliente OpenAI
client = OpenAI(api_key=openai.api_key )

# Importa o dicionário de respostas rápidas
from respostas_rapidas import respostas_prontas

# Dicionário final com os embeddings
embeddings = {}

# Gera os embeddings
for chave, texto in respostas_prontas.items():
    print(f"🔎 Gerando embedding para: {chave}")
    response = client.embeddings.create(
        model="text-embedding-ada-002",
        input=texto
    )
    vector = response.data[0].embedding
    embeddings[chave] = vector

# Caminho onde o JSON será salvo
output_path = "/var/www/html/cagpublico/cag/projeto/respostas_prontas_embeddings.json"
with open(output_path, "w") as f:
    json.dump(embeddings, f)

print(f"\n✅ Embeddings salvos com sucesso em: {output_path}")
