Sobre este proyecto
it-programming / artificial-intelligence-1
Abierto
Contexto general del proyecto
Implementar LLaMA 4 Maverick con enrutamiento MoE (2 de 128 expertos activos) Ejecutar en una sola GPU (H100 o H200) Integrar memoria persistente, adaptación por usuario y autonomía de operación La IA debe funcionar de manera proactiva, sin depender de prompts Habilidades requeridas: Cuantización (FP8, GPTQ, AWQ) Manejo de vLLM, DeepSpeed-MoE o ColossalAI Memoria persistente (RAG, vector DB o embedding) Fine-tuning ligero o embeddings en: Lenguaje ejecutivo Lógica de portafolio Trading institucional Programación Funciones requeridas: Interfaz conversacional en tiempo real (estilo chat), desde la cual el sistema pueda: Responder de forma contextual Recordar interacciones previas Iniciar conversaciones Ejecutar tareas directamente desde la conversación Lectura y envío de correos (IMAP/SMTP) Llamadas VoIP (debe poder realizar llamadas reales) Gestión de agenda y recordatorios autónomos Trading por API con IBKR y Kraken Control total mediante un switch maestro para desactivar operaciones La arquitectura debe permitir añadir otros brokers y servicios en el futuro Requisitos técnicos: Todo debe correr en una sola GPU (H100 o H200) Nada de demos ni endpoints incompletos Multilenguaje: inglés, español y árabe Código limpio, bien documentado Instrucciones mínimas para instalación y uso Pensado para evolución y operación continua No aplicar si: Nunca has implementado modelos MoE en producción real Solo trabajas con demos o sistemas a medio construir No puedes trabajar exclusivamente con LLaMA 4 Maverick (versión oficial) Idioma: Inglés o español Inicio: Inmediato Entrega: Máximo 7–10 días calendario Evaluación: Se basa únicamente en experiencia real con modelos MoE en producción
Categoría Programación y Tecnología
Subcategoría Inteligencia Artificial
Tamaño del proyecto Grande
¿Es un proyecto o una posición? Un proyecto
Disponibilidad requerida Según se necesite
Plazo de Entrega: 31 Mayo, 2025
Habilidades necesarias