SOFTWARE A MEDIDA · IA INTEGRADA IA en el flujo · no en el marketing

Software donde la IA
no es una feature,
es el flujo.

Quick answer

Construimos software a medida donde la IA está embebida en el proceso real del negocio, no colgada como un "agrégale ChatGPT acá". Panel con generación de propuestas, búsqueda semántica sobre documentos propios, clasificación automática de tickets, resumen de reuniones, extracción de datos de PDFs, análisis predictivo. Trabajamos con Claude, GPT-5, Gemini y modelos open source self-hosted (Llama, Mistral, Qwen) cuando los datos no pueden salir de la empresa.

4
Modelos premium
Llama
Self-host disponible
RAG
Sobre tus documentos
6-12 sem
MVP con IA integrada
propuesta-generator.ts · olpa
import Anthropic from '@anthropic-ai/sdk'
import { getCliente, saveProp } from './odoo'

const ai = new Anthropic()

export async function generarPropuesta({
  clienteId, alcance, presupuesto, timeline
}) {
  const c = await getCliente(clienteId)

  const r = await ai.messages.create({
    model: 'claude-opus-4-6',
    max_tokens: 4096,
    system: SYSTEM_TONE,
    messages: [{
      role: 'user',
      content: buildPrompt(c, alcance)
    }]
  })

  return saveProp(r.content)_
}

IA integrada vs IA decorativa

Hoy todo el mundo "tiene IA". La pregunta es si está metida en el flujo del negocio o si es solo marketing.

IA decorativa
  • Un botón " Pedile a la IA" que abre un prompt vacío
  • La IA no sabe nada del cliente, del catálogo, del histórico
  • Las respuestas son genéricas y hay que corregirlas igual
  • Cada uso del botón es una decisión separada sin memoria
  • Ahorra 0% de tiempo real en la operación
  • Existe para poner "con IA" en el pitch deck
VS
IA integrada en el flujo
  • La IA corre cuando el proceso lo necesita, sin clicks extra
  • Tiene acceso a datos reales: CRM, catálogo, histórico
  • Respuestas con tono de marca, vocabulario interno y formato propio
  • Con memoria y aprendizaje del contexto de la empresa
  • Ahorra horas reales y mueve métricas medibles
  • Existe para resolver un problema concreto

6 formas de meter IA en el software real

Son los patrones que se repiten en nuestras implementaciones. No casos únicos: arquitecturas replicables.

01

Generación asistida con contexto

Propuestas, contratos, emails, descripciones de producto, respuestas a RFPs. El usuario completa 6-8 campos y la IA redacta con tu tono, tu vocabulario y tu data real.

Patrón técnico

Prompt con system message + datos del cliente desde Odoo/CRM → Claude o GPT-5 → output validado → guardado al CRM con revisión humana.

02

RAG sobre documentos propios

Búsqueda semántica sobre toda la documentación interna de la empresa: políticas, SOPs, contratos, manuales, histórico de tickets. El usuario pregunta en lenguaje natural y la IA responde con fuentes.

Patrón técnico

Documentos → chunking → embeddings (OpenAI, Voyage) → Supabase pgvector → retrieval → Claude/GPT para síntesis final con citas al documento de origen.

03

Clasificación y derivación

Tickets nuevos, mails, mensajes de WhatsApp, facturas que entran. La IA los clasifica por urgencia, tipo, área y los deriva al responsable correcto, con explicación de por qué.

Patrón técnico

Webhook de entrada → prompt de clasificación con categorías del cliente → Claude Haiku (modelo rápido) → ruteo a CRM / Slack / email + log.

04

Resumen y extracción de datos

Reuniones transcritas, llamadas grabadas, contratos en PDF, facturas de proveedores. La IA extrae lo importante: acuerdos, action items, montos, fechas, responsables.

Patrón técnico

Audio → Whisper (OpenAI) o Deepgram → texto → Claude con structured output JSON → carga automática al CRM o Odoo.

05

Análisis predictivo + scoring

Lead scoring automático, priorización de oportunidades, predicción de churn, detección de clientes en riesgo. Para operaciones con volumen donde un humano no puede mirar todo.

Patrón técnico

Features extraídos del histórico → modelo clásico (XGBoost) + LLM para explicación → scores disponibles como campo del CRM con razones en lenguaje natural.

06

Orquestación de tareas (agentic)

El usuario describe qué quiere lograr en lenguaje natural y el agente descompone en subtareas, consulta sistemas, toma decisiones y devuelve el resultado. Para workflows complejos no lineales.

Patrón técnico

Claude con tool use / MCP → agente con acceso a herramientas (Odoo API, Google Calendar, envío de email) → loop de ejecución → resultado estructurado al usuario.

Qué modelo elegimos para cada tarea

No hay un mejor modelo universal. Elegimos según costo, latencia, privacidad y tipo de razonamiento.

FRONTIER

Claude Opus 4.6

Anthropic

Razonamiento complejo, tareas que requieren juicio, respuestas largas bien estructuradas, código de producción, análisis de documentos legales.

Razonamiento profundo Código y herramientas Seguridad + alignment
FRONTIER

GPT-5

OpenAI

Tareas multimodales (texto + imagen), generación creativa, ecosistema de tools maduro, integración con APIs grandes. Modelo más conocido y con más plugins.

Multimodal Ecosistema grande Costo competitivo
FRONTIER

Gemini 2.5

Google

Contexto gigante (2M tokens), multimodal fuerte (video, audio, imagen), integración nativa con Google Workspace y BigQuery para análisis de datos corporativos.

Context window 2M Multimodal premium Google Workspace
RÁPIDO · ECONÓMICO

Claude Haiku + GPT Mini

Para volumen alto

Modelos más chicos y rápidos para tareas simples de alto volumen: clasificación, extracción, validación, respuestas cortas. Costo por token 10-30× menor que los frontier.

Latencia <1s Costo bajo Volumen masivo
SELF-HOSTED

Llama 3.3 / Mistral

Meta · Mistral AI

Cuando los datos no pueden salir de la empresa: legal, salud, fintech, gobierno. Hosteamos el modelo en tu infraestructura o en la nuestra. Sin API externa.

Datos en tu infra Sin API externa Costo plano mensual
ESPECIALIZADO

Whisper + Voyage + CLIP

Modelos de soporte

Whisper para transcripción de audio (OpenAI), Voyage para embeddings de alta calidad para RAG, CLIP para búsqueda semántica en imágenes. Modelos no generativos para tareas puntuales.

Transcripción Embeddings RAG Búsqueda multimodal

Estudio LATAM: propuestas comerciales en 15 minutos

Servicios profesionales · 12 personas · LATAM

De 4 horas por propuesta a 15 minutos con IA integrada al proceso comercial

El problema: el equipo comercial armaba propuestas en Word con Ctrl+C/V de documentos viejos. Cada una tardaba 4 horas, tenía errores, los datos quedaban desactualizados y nada de lo aprendido quedaba para la próxima.

Qué hicimos: panel interno Next.js + Supabase + Claude Opus 4.6. El comercial completa 8 campos (cliente, alcance, timeline, riesgos, stakeholders). La IA genera la propuesta con el tono de marca de Olpa, estructura del cliente, pricing sugerido según histórico y anexos automáticos. Todo queda guardado en el CRM, y cada propuesta nueva aprende de las últimas que cerraron.

−93%
Tiempo por propuesta
+40%
Propuestas enviadas/mes
0
Errores de datos
6 sem
De idea a producción

Qué usamos debajo del capó

Frontend
  • Next.js 15 (App Router)
  • React Server Components
  • Tailwind + shadcn/ui
  • Vercel AI SDK (streaming)
Backend + IA
  • Node.js / Python
  • Anthropic SDK · OpenAI SDK
  • LangChain cuando aplica
  • Tool use · MCP · Function calling
Datos + RAG
  • Supabase (Postgres + pgvector)
  • Embeddings: Voyage · OpenAI
  • Chunking con semantic splitting
  • Caching agresivo de prompts
Deployment
  • Vercel / Cloudflare
  • Docker para modelos self-hosted
  • Ollama · vLLM para Llama
  • Monitoring: Sentry + Langfuse

Software con IA potenciado por las otras áreas

→ Agentes IA

Agentes en tu software

Software con IA + agentes IA es la combinación más pedida. El agente vive dentro de la herramienta custom que desarrollamos.

→ Agentes IA

Agentes en tu software

Software con IA + agentes IA es la combinación más pedida. El agente vive dentro de la herramienta custom que desarrollamos.

→ Odoo

Datos reales al modelo

La IA necesita datos para ser útil. Odoo es la fuente: clientes, productos, histórico, políticas. Todo accedido via API.

→ Apps a medida

App + IA en un solo desarrollo

A veces la IA corre dentro de una app mobile o web que también desarrollamos. Un solo equipo, un solo proyecto.

Lo que todos preguntan sobre IA integrada

¿Es lo mismo que "usar ChatGPT"?
No. ChatGPT (o Claude.ai) es una interfaz genérica para interactuar con un modelo. Lo que hacemos nosotros es embeber el modelo dentro de tu software, con acceso a tus datos reales, con tono de marca específico, con guardrails, con logs, con control de costos. El usuario final muchas veces ni se entera de que hay una API de IA atrás: simplemente ve que "el sistema le sugiere la mejor respuesta" o "arma la propuesta automáticamente".
¿Mis datos quedan seguros?
Sí. Para Claude (Anthropic), GPT (OpenAI) y Gemini (Google) usamos las APIs empresariales que no entrenan con los datos de los clientes. Eso es parte del contrato. Para casos muy sensibles (médicos, legales, gobierno) hosteamos modelos open source (Llama 3.3, Mistral) en tu propia infraestructura o en la nuestra. En esos casos ningún dato sale de la red.
¿Cuánto sale correrlo al mes?
Depende del volumen y del modelo. Para casos típicos de PyME (algunas miles de llamadas al mes, modelo frontier) el costo mensual del modelo está en un rango bajo. Para volumen alto, combinamos modelos chicos para tareas simples (Haiku, GPT Mini) con modelos frontier (Opus, GPT-5) solo cuando hace falta razonamiento complejo. Eso baja el costo 5-15×. Te damos un estimado después del diagnóstico.
¿Qué pasa si el modelo alucina?
Es el riesgo principal y lo manejamos con varias técnicas: (1) retrieval augmented generation (RAG) para que el modelo cite fuentes reales, (2) structured output con JSON schemas para evitar formato libre, (3) validación automática de las respuestas contra tus datos reales, (4) revisión humana obligatoria en casos sensibles (propuestas, contenido público), (5) logs completos de cada respuesta para auditoría.
¿Cuánto tarda construirlo?
Un MVP útil (una o dos capacidades IA integradas en un flujo real) toma 6-12 semanas. Proyectos más grandes con RAG sobre miles de documentos, agentes con herramientas, modelos fine-tuneados o self-host pueden llevar 3-6 meses. La mayor parte del tiempo no se va en el código de IA: se va en datos, validación, testing contra casos reales y guardrails.
¿Puedo usar mi propio modelo ya entrenado?
Sí. Si ya tenés un modelo fine-tuneado o entrenado desde cero (típico en casos con data muy específica), lo integramos al software sin pelearnos por usar "nuestro favorito". La capa de aplicación es agnóstica del modelo si el diseño es correcto.

¿Tenés un flujo para meterle IA?

En 30 minutos miramos tu proceso y te decimos qué parte se puede automatizar con IA integrada, qué modelo conviene, qué riesgos hay y cuánto impacto real podemos mover. Con números, no con humo.