Nueva Inteligencia Artificial que puede programar y redactar textos complejos

¿Hasta donde ha evolucionado la Inteligencia Artificial? se ha convertido en una excelente herramienta para potenciar el desarrollo de diferentes ámbitos, y ahora es tiempo de aplicarla en otro sector.

La Inteligencia Artificial se ha consolidado durante los últimos años como un recurso relevante en el mundo tecnológico, potenciando el desarrollo de la medicina, robótica, videojuegos y el área industrial.

Esta tecnología se encuentra expandiendo su alcance más allá de lo cotidiano, demostrando que tan poderosa puede ser esta herramienta.

Por definición, un algoritmo de inteligencia artificial tiene como misión la ejecución automatizada de una tarea, reconociendo las variables de su entorno y reduciendo el margen de error al mínimo posible.

Ahora contamos con un avance dotado de la capacidad de realizar trabajos de programación y redactar textos complejos, como párrafos completos e incluso poesía.

Nueva Inteligencia Artificial que puede programar y redactar textos complejos

Una bitácora con los detalles de sus hallazgos en torno a esta herramienta fue compartida por Prasenjit Mitra, Decano Asociado de Investigación y Profesor de Ciencias y Tecnología de la Información de la Universidad Estatal de Pensilvania.

Se trata de GPT-3, sigla de Generative Pre-trained Transformer 3, un motor de generación de textos elaborado por OpenAI, una empresa dedicada a la investigación científica en torno a la Inteligencia Artificial.

Esta tecnología es, “el programa de generación de lenguaje natural más «informado» hasta la fecha, y tiene una variedad de usos potenciales en profesiones que van desde la enseñanza hasta el periodismo y el servicio al cliente” comentó Prasenjit Mitra.

Este mecanismo marca una abismal diferencia con las experiencias previas, hace siete años, haciendo uso de otra IA sólo habían logrado redactar un artículo en base a otros fragmentos de artículos de Wikipedia.

En cuanto a volumen de datos, GPT-3 hace uso de 3 mil millones de tokens (palabras, en este caso) de Wikipedia, 410 mil millones de tokens obtenidos de páginas web y 67 mil millones de tokens de libros digitalizados.

Comparando, la complejidad de GPT-3 es más de 10 veces superior a la de Turing Natural Language Generation (T-NLG), el modelo de generador que le precede.

La tecnología avanza a pasos agigantados, y su eficiente y correcta aplicación siempre dependerá del criterio de quien esté tras ella, una poderosa herramienta como esta merece cuidado.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *