FAQ - Preguntas Frecuentes¶
Respuestas a las preguntas más comunes sobre BYOAPI.
General¶
¿Qué es BYOAPI?
BYOAPI (Bring Your Own API Key) te permite usar tu propia API key de Anthropic, OpenAI o Google en Lumilink. Pagas directamente al provider, no a Lumilink.
¿Es segura mi API key?
Sí. Se encripta con HashiCorp Vault usando transit encryption. Nunca se almacena en texto plano y solo se desencripta en memoria para hacer requests.
¿Puedo tener múltiples keys?
Sí. Puedes tener una key activa por provider. Por ejemplo: una de Anthropic y una de OpenAI simultáneamente.
¿Qué pasa si mi key expira?
Lumilink te notificará cuando detecte errores de autenticación. Simplemente actualiza tu key en Settings.
Costos¶
¿Cuánto puedo ahorrar con BYOAPI?
Típicamente 60-80% comparado con usar tokens via Lumilink. El ahorro exacto depende de tu volumen y los modelos que uses.
¿Hay costo adicional por usar BYOAPI?
No. BYOAPI es una feature incluida en todos los planes de Lumilink.
¿Cómo veo cuánto estoy gastando?
En Dashboard → External Models → Usage. Mostramos tokens usados y costo estimado basado en precios públicos del provider.
¿Lumilink cobra algo extra?
No. Solo pagas a Anthropic/OpenAI/Google directamente. Lumilink no cobra comisión.
claude.ai vs API¶
¿Puedo vincular mi cuenta de claude.ai con BYOAPI?
No. Son productos completamente separados:
- claude.ai = Chat consumer (historial, memorias, proyectos)
- API de Anthropic = Acceso programático al modelo
Una API key no trae tu historial de claude.ai.
¿Necesito cuenta de pago en claude.ai?
No. La API de Anthropic es independiente. Puedes tener cuenta gratuita en claude.ai y API key de pago, o viceversa.
¿Mis chats en Lumilink aparecen en claude.ai?
No. Son sistemas separados. Tus chats en Lumilink se guardan en Lumilink.
Modelos¶
¿Qué modelos puedo usar con BYOAPI?
Depende del provider:
- Anthropic: Claude 3.5 Sonnet, Claude 3.5 Haiku, Claude 3 Opus
- OpenAI: GPT-4o, GPT-4o mini, GPT-4 Turbo, GPT-3.5
- Google: Gemini Pro (próximamente)
¿Puedo restringir qué modelos usa mi key?
Sí. En la configuración de tu key puedes especificar allowed_models para limitar a modelos específicos.
¿Los modelos locales usan mi BYOAPI key?
No. Modelos locales (aurora-companion, aurora-coder) corren en infraestructura de Lumilink y no usan API keys externas.
Límites¶
¿Puedo configurar límites de uso?
Sí. Puedes configurar:
max_tokens_per_day: Máximo diariomax_tokens_per_month: Máximo mensualmax_requests_per_minute: Rate limit
¿Qué pasa si alcanzo mi límite?
Lumilink bloquea requests a ese modelo. Puedes:
- Esperar al reset (diario o mensual)
- Aumentar el límite en Settings
- Usar un modelo local mientras tanto
¿Los límites de Lumilink afectan los del provider?
Son independientes. Puedes tener límites en Lumilink más bajos que en el provider (recomendado para control de costos).
Governance¶
¿Qué datos se envían al modelo externo?
Solo datos con visibility public o internal (según tu configuración). Datos personal y confidential nunca se envían.
¿Puedo desactivar governance?
No. Es una protección obligatoria. No puedes enviar datos sensibles a APIs externas.
¿Cómo sé si governance bloqueó algo?
En los logs de governance (Dashboard → External Models → Logs) puedes ver qué documentos fueron filtrados.
¿Qué pasa si todo mi contexto es confidencial?
El request procede sin contexto RAG. El modelo solo ve tu mensaje directo.
Troubleshooting¶
Error: Invalid API Key
Causas comunes:
- Key mal copiada (espacios extra, caracteres faltantes)
- Key expirada o revocada
- Sin créditos en el provider
Solución: Verifica la key en el dashboard del provider y actualiza en Lumilink.
Error: Rate Limit Exceeded
Causas:
- Excediste tu límite en Lumilink
- Excediste el rate limit del provider
Solución: Espera unos minutos o aumenta límites.
Error: Model Not Allowed
Causa: El modelo no está en tu lista allowed_models.
Solución: Edita la key y agrega el modelo, o usa ["*"] para permitir todos.
El modelo responde lento
APIs externas tienen latencia variable. Factores:
- Carga del provider
- Tamaño del contexto enviado
- Modelo usado (Opus > Sonnet > Haiku)
Tip: Usa modelos locales para respuestas rápidas.
Soporte¶
¿Dónde obtengo ayuda?
- Docs: docs.lumilink.io
- Discord: discord.gg/oiaglobal
- Email: support@lumilink.io
¿Cómo reporto un bug?
- Discord #bugs
- Email a support@lumilink.io con:
- Descripción del problema
- Steps to reproduce
- Logs si es posible
¿Hay SLA para BYOAPI?
BYOAPI hereda el SLA de tu plan de Lumilink. El SLA del modelo depende del provider (Anthropic, OpenAI).
Próximos pasos¶
¿No encontraste tu respuesta?