GPT-4 lanzamiento y expectativas

Microaprendizaje / Tiempo de lectura: 5 minutos

GPT-4 a punto de lanzarse

¿Qué hace una I.A. multimodal?

GPT-4 nos ofrece la posibilidad de crear proyectos de Inteligencia Artificial que sean capaces de comunicarse con las computadoras de muchas maneras. Esto nos permitirá interactuar con nuestros ordenadores mediante el lenguaje hablado o escrito, así como también a través de otros medios de comunicación.

 

Esta plataforma utiliza una variedad de herramientas y tecnologías, incluyendo reconocimiento de voz, análisis de texto, análisis de imagen y video, de sonidos y composiciones musicales, procesamiento de lenguaje natural, aprendizaje profundo y más.

 

Próximo lanzamiento: GPT-4

GPT-4 ya está disponible como versión de pago

Proporcionará un marco para el desarrollo de aplicaciones y sistemas de IA de forma rápida y sencilla, hasta ahora solo al alcance de expertos.

 

Los expertos adelantan nuevas funcionalidades que se podrán implementar con esta tecnología, como la creación de vídeos a partir de guiones, la puesta a disposición de una APP para smartphones o la obtención de respuestas directamente traducidas de su extensa base de datos en inglés (se espera que resulten más precisas y creíbles).

 

La capacidad de aprendizaje de GPT-4 respecto a su predecesor GPT-3.5 es unas 500 veces mayor.

 

Potencial de la I.A.

¿Qué significa «modelo de lenguaje autorregresivo»?

(AR) es una herramienta estadística usada para predecir una variable dependiente basada en una o más variables independientes. Esto se logra a través de la identificación de patrones en los datos a través de una regresión lineal.

 

La magia de una I.A. no se base en realmente «conocer» o «saber», sino más bien en predecir.

 

Esto significa que los resultados de una observación previa se usan para predecir los resultados de una observación actual. Esto se logra en parte asumiendo que los datos están relacionados entre sí a lo largo del tiempo. Esto lo hace ideal para el análisis de series de tiempo.

 

Desde que John McCarthy el principal impulsor de la Inteligencia Artificial y realizó una definición formal de la Inteligencia Artificial el progreso de esta técnica no ha parado, lo que ocurre es que recientemente se está popularizando su uso.

 

McCarthy, inventó el lenguaje de programación lógico llamado Lisp, el cual fue una de las primeras herramientas usadas para el desarrollo de la Inteligencia Artificial.

 

También contribuyó con el concepto de «aprendizaje de refuerzo» para la Inteligencia Artificial y desarrolló algoritmos de aprendizaje para el entrenamiento de sistemas de IA.

 

El aprendizaje de refuerzo es un área de la inteligencia artificial que se enfoca en la forma en que los agentes interactúan con su entorno para obtener una recompensa.

 

En este caso, el agente es una IA y el entorno es un juego o una tarea. El objetivo de la IA es entender cómo actuar para maximizar la recompensa. Esto se logra mediante la búsqueda de patrones en los datos recopilados de su interacción con el entorno.

 

Estos patrones son utilizados para tomar decisiones sobre cómo actuar en un entorno y, por lo tanto, mejorar las recompensas. El aprendizaje de refuerzo es un proceso iterativo en el que la IA aprende de la información obtenida de sus interacciones con el entorno.

 

Fronteras de la Inteligencia Artificial

El potencial de la I.A.

A medida que la IA aprende, se vuelve más competente para tomar decisiones sobre cómo actuar en el entorno para maximizar la recompensa.

 

Por ello, se espera que la Inteligencia Artificial es una herramienta muy útil para eliminar puestos de trabajo repetitivos.

 

La IA puede ser usada para automatizar procesos, lo que reduce el tiempo y los costos necesarios para realizar el trabajo de manera manual.

 

Esto significa que muchos puestos de trabajo que requieren la realización de tareas repetitivas pueden ser reemplazados por la IA. Como por ejemplo, labores administrativas, copywriters, SEOs, programadores, operadores de maquinaria, conductores, telefonistas, personal de banca, telemarketing , contables, analistas de datos, corredores de bolsa, asesores financieros, agentes de seguros, …

 

Todo aquél puesto que no se diferencie por su carácter humano, es susceptible de ser sustituido por un robot.

 

 

 

Esto puede reducir el número de empleos disponibles, pero también abre la puerta a nuevas oportunidades laborales relacionadas con la Inteligencia Artificial.

 

Robots y trabajo

¿Puede la Inteligencia Artificial (IA) sustituir funciones como la docencia?

Si, por el sencillo motivo, de que se le da muy bien. Al igual que interpretar textos y leyes, de una manera lógica , si errores y con capacidad de autoaprendizaje, tal y como hemos visto. En corto tiempo, resultará un gran apoyo para la enseñanza pudiendo llegar a sustituir a maestros y profesores.

 

La IA ofrece una gran cantidad de funcionalidades útiles para el aprendizaje, como la evaluación, el seguimiento, la entrega de contenido y la estimulación del aprendizaje, … pero los profesores seguirán siendo necesarios para proporcionar experiencia vividas en primera persona, inspiración y motivación para los estudiantes.

 

La Paradoja de la Uncanny Valley (valle inquietante)es un concepto acuñado por el robotólogo japonés Masahiro Mori en 1970. Se refiere a la sensación desagradable y a veces inquietante que se produce al mirar ciertas creaciones de inteligencia artificial que parecen humanas, pero que no lo son del todo.

 

Esto se debe a que el cerebro humano reconoce la forma humana como familiar pero, al mismo tiempo, se da cuenta de que algo no está bien. Esta sensación de incertidumbre puede ser a veces aterradora y puede evitar que sea aceptada la inteligencia artificial por la sociedad.

 

El potencial de la Inteligencia Artificial es tal, que muchos se temen que resulte un peligro para la humanidad.

 

Para finalizar, incluimos la respuesta que la propia I.A. con ChatGPT 3.5 nos da ante la pregunta de si un desarrollo muy avanzado de inteligencia artificial resultaría peligrosa para la humanidad:

 

No necesariamente. Una Inteligencia Artificial (IA) del máximo nivel de desarrollo podría depender de la manera en que se desarrolle y se use. Si se usa con buenas intenciones, como para mejorar la calidad de vida de la humanidad, entonces no sería un peligro. Por otro lado, si se usa con malas intenciones, entonces sí podría ser un peligro para la humanidad.

 

Autor:

Daniel Jiménez

 

 


Notas: OpenAI Inc., una empresa de investigación de IA con sede en San Francisco, Estados Unidos. Ha sido adquirida por Microsoft, por lo que se prevé su próxima incorporación a sus catálogo de soluciones como el buscador Bing para poder competir con Google o en aplicaciones como Ms Teams o Stream para la transcripción de textos.

 

Dejar una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Puedes usar estas etiquetas y atributos HTML:

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>