
Los últimos meses las barreras de acceso a aplicar IA se han volatilizado, especialmente los LLM Large Language Model.
Todos hemos podido usar Chat-GPT para extraer ideas, redactar textos, obtener ejemplos de programación, soluciones a problemas … cualquier cosa que necesitabas lo podíamos pedir, y ya en versión beta hasta imágenes. Al igual que Chat-GPT podíamos emplear otros LLM Open-Source. A mi me gusta perplexity.ia, tal vez porque es un nombre fácil de recordar 😉
Microsoft ya incluye Copilot en Bing para consultas, y también dentro de Power BI para poder preguntar sobre sus datos en su propio idioma y obtener respuestas en forma de gráficos o tablas. Copilot también puede generar código DAX o M para las consultas, lo que facilita la personalización y el ajuste de los informes.
Que los profesionales que usan IA en su trabajo obtienen mejores resultados en productividad y calidad, ya es un hecho. Y dentro de poco veremos a Siri cambiar a Ajax
En Adinton, sofware de atribución para e-Marketing, trabajamos con mucha información de cada visita de los usuarios a las webs de diversos clientes, donde analizamos el porqué y las causas de cada venta, incluso pronosticando con éxito futuros comportamientos. Y como en cualquier otra empresa nos preguntamos si era el momento de crear nuestro propio Chat-GPT de marketing.
El proceso no es difícil pero si complejo. Cómo crear tu propio GPT se lo puedes preguntar al propio Chat-GPT. Si tu opción es tenerlo más controlado, es decir, con datos propios y en un entorno propio, tenemos soluciones más fáciles de instalar como LLamaIndex.
Evidentemente, al disponer de tu propio Google Bard podemos emplearlo en chatbots, asistentes virtuales, creadores de informes y resúmenes, traducción de idiomas, creación de contenido, etc. Y si se hace bien, obtener rendimiento monetario.
¿Pero qué sabemos de sus costes? Bien poco. Difícil evaluar el coste de construcción. Difícil evaluar el retorno. Y no olvidemos que la capacidad de procesamiento también hay que pagarla, incluso que actualmente pierden dinero por cada consulta.
Crear un prototipo, o incluso varios con diferentes LLM y evaluar quien lo hace mejor en un gran ejercicio, no muy costoso. Así lo explica Robert Gonsalves creando una IA que se nutre de sus propios escritos y comparando entre resultados.
Sin olvidar la necesidad en formación que requiere saber preguntar correctamente a nuestra IA, de Prompting existen cursos y una alta demanda de profesional, pero requiere horas y experiencia.
Y para colmo, investigando sobre la tecnología vemos sus riesgos con Los 10 fallos de seguridad más graves de ChatGPT, Bard, Llama y LLM Apps donde el gran Chema Alonso nos da una visión inesperada.
La inversión necesaria parece cuantiosa en tiempo y esfuerzo, el retorno incierto. ¿merecerá la pena?
¿Y tú, qué opinas?
Gracias por dejar tu comentario.
Saludos.




