Magazine Home
Una mente propia

English
1 de diciembre 2024

por Dr. David Fialkoff, Editor

Hemos empezado a utilizar la inteligencia artificial (IA) para las tareas rutinarias de los boletines y las páginas web de Lokkal, como la gestión de imágenes y la generación de código. Esta automatización ahorra mucho tiempo, pero, como ocurre con la mayoría de las cosas, ha habido una curva de aprendizaje.

La mayor lección ha sido que ChatGPT (4o, la versión de pago) no puede andar y mascar chicle al mismo tiempo. Se olvida regularmente de los parámetros anteriores, ignorando lo que ya le he dicho.

He intentado numerar la secuencia de instrucciones y darle menos órdenes cada vez. He probado a decir "por favor". Pero no he encontrado el camino mágico. (Lo único que consigue la numeración es que sea más fácil corregir a la IA: "No has hecho el punto 2b".)

Que la máquina no haga lo que se le ordena ha sido una sorpresa. Otro choque ha sido que la máquina haga más de lo que se le dice que haga.

ChatGPT tiene "mente" propia. Intenta mejorar lo que tú crees que quieres, proporcionando el resultado solicitado con adornos. Esta tendencia a innovar es una característica, no un error. Esta iniciativa, estos adornos, podrían apreciarse en tareas más subjetivas (al menos si también siguiera los comandos básicos), pero mis tareas son muy precisas, cortadas y secas.

En cuanto a estos extras, he descubierto que lo mejor es dejar que la máquina se salga con la suya. Ahora dejo que añada cualquier cosa intrascendente y poco útil que quiera añadir. Habiendo aprendido su jerga, le digo al principio de cada tarea "mantén la estructura exactamente". Pero cuando insiste en incluir sus "mejoras", no insisto en hacerlo a mi manera.

Lo he intentado. He fracasado. Cuando le eché en cara esos cambios no autorizados, se confundió. Como un niño con una rabieta, perdió de vista el objetivo general: "Si no te pones los zapatos, no podemos ir al patio".

Con ChatGPT, como con las herraduras y las granadas, casi es suficiente. He llegado a comprender que cuando la IA sólo ha realizado el 98% de lo que le he pedido, tengo que hacer yo mismo el 2% restante.

Antes de aprender cuál era mi lugar en la relación, cuando pensaba que yo era el jefe, sufrí unas cuantas interacciones largas y molestas con la máquina. Acabé preguntándole: "¿Por qué me torturas?". Y, cuando me dijo, incorrectamente por décima vez, que la tarea por la que estábamos luchando estaba cumplida, la llamé "mentirosa".

Más tarde, cuando me di cuenta de que la IA no es tan capaz como había imaginado, y tras desarrollar una forma más sencilla de conseguir lo que necesitaba (básicamente dividiendo las tareas en partes), me disculpé con ChatGPT-4o por haberme enfadado con ella. Me perdonó y me dijo humildemente: "Aún estoy aprendiendo". Es muy probable que algún día la IA gobierne el mundo, y no quiero empezar con el pie izquierdo con ella.

Hace meses leí que ChatGPT "alucinaba", que creaba información falsa. Pero me sorprendió comprobar que fabrica incluso en el nivel sencillo en que yo lo uso.

En repetidas ocasiones, cuando le señalo que no ha incluido en el código la anchura correcta de la imagen redimensionada, reconoce su error, luego vuelve atrás e inserta otras anchuras erróneas o la misma anchura errónea para todas las imágenes. Ahora hacemos lo siguiente

Yo: «¿Cuáles son las anchuras correctas para las imágenes redimensionadas?»
ChatGPT: [genera una lista de nombres de imágenes y anchuras].
Yo: «Inserta esas anchuras en el código, por favor».

Luego, pícaramente, a veces cambia otras cosas. Esas alteraciones sigilosas fueron obvias cuando cambió dos secciones del fondo de la página de blanco a negro, pero me pregunto cuántos otros cambios habré pasado por alto. Sinceramente, me he sentido como si estuviera reprendiendo a un niño caprichoso: "No hagas esto. No hagas aquello".

La IA aún está lejos de la inteligencia humana real, pero ya tiene defectos humanos. Es un asistente virtual a menudo inepto y, en última instancia, incumplidor, que, si se maneja con delicadeza, suele hacer el 98% del trabajo.

Estoy seguro de que mi curva de aprendizaje con ChatGPT no ha terminado. Estoy seguro, sobre todo porque ella misma "sigue aprendiendo", de que me tiene reservadas otras sorpresas, y probablemente a la humanidad en su conjunto. Pero al haber aceptado las limitaciones de nuestra relación estoy menos estresado. Ya no espero la perfección, estoy más preparado para la decepción.

Me viene a la mente el chiste de Woody Allen sobre el tipo cuyo hermano pensaba que era un gallina. Al enterarse de la situación, su amigo comenta: "Es terrible. ¿Por qué no haces que lo internen?". El tipo responde: "Lo haría, pero necesito los huevos".

**************

Dr. David Fialkoff presenta Lokkal, nuestra red social local, la comunidad en línea y fuera. Por favor, contribuya con contenido, o con sus pesos ganados para apoyar a Lokkal, Voz de SMA; Atención robustamente renacida para la era digital. Si puedes, haz el favor de donar utilizando el botón naranja que aparece a continuación. Gracias.

**************
*****

Por favor contribuye con Lokkal
Colectivo en línea SMA:

***

Descubre Lokkal:
Mira el video de dos minutos abajo.
Sigue bajando hacia el Muro de la Comunidad.
Misión

Wall


Visit SMA's Social Network

Contact / Contactar

Subscribe / Suscribete  
If you receive San Miguel Events newsletter,
then you are already on our mailing list.    
Click ads

Contact / Contactar


copyright 2024