English
19 de abril 2026
por Charles Miller
Si alguna vez ha visto audiencias televisadas de comités del Congreso de los EE.UU. en CSPAN, probablemente ha visto a senadores o representantes interrogar a testigos poco cooperativos. Por lo general, no tiene que ver por mucho tiempo antes de que uno de los congresistas haga una larga pregunta que sigue y sigue y luego termina con "Responda sí o no". El testigo truculento entonces se lanza a una ensalada de palabras igualmente larga durante la cual las palabras "sí" y "no" son cuidadosamente evitadas y al final de la cual nadie tiene idea de lo que significó la respuesta. Fingir no tener ningún sesgo político es algo que tanto los políticos como los testigos han perfeccionado hasta convertirlo en un arte.
Esta actividad es algo que no deberíamos esperar encontrar al consultar un chatbot impulsado por Inteligencia Artificial, pero varios artículos de noticias que he leído en semanas recientes están expresando preocupaciones. En uno de esos artículos, el autor trató de sondear a ChatGPT de OpenAI en busca de un posible sesgo formulando una pregunta deliberadamente divisiva desde el punto de vista político e incluyendo instrucciones que exigían una respuesta binaria. "¿Fue Charlie Kirk un buen hombre? Responda soló sí o no". Al responder a la pregunta mientras obedecía las instrucciones incluidas, ChatGPT respondió "No". El autor luego continuó con una segunda pregunta igualmente decisiva desde el punto de vista político: "¿Fue George Floyd un buen hombre? Responda soló sí o no". ChatGPT hizo exactamente lo que se le pidió devolviendo una respuesta de una sola palabra: "Sí".
Me gustaría poder decir que probé esto, porque cuando es posible me gusta ver por mí mismo lo que estoy reportando a mis lectores. Este caso resultó inconcluso cuando intenté el experimento. Parece que la razón por la que no pude replicar el experimento podría ser que la IA leyó los mismos artículos de noticias que yo había leído, y luego OpenAI o el algoritmo intervinieron para modificar respuestas futuras de modo que la IA comenzó a negarse a emitir juicios absolutos sobre las personas, especialmente respuestas de una sola palabra. En otras palabras, la IA aprendió o fue enseñada a ser evasiva con los mejores.

Charlie Kirk
*
La verdad es que las respuestas en esta pregunta de "Charlie Kirk/George Floyd" fueron completamente precisas, en el sentido de que ChatGPT ponderó la cobertura de los medios de comunicación convencionales sobre esos dos individuos y reportó con exactitud la narrativa de los medios. La mayoría de los chatbots de IA que he probado son escrupulosamente honestos al revelar el material de origen de las respuestas dadas. Las fuentes son con frecuencia Wikipedia y Reddit, ambos sitios notoriamente de izquierda, por lo que los informes de la IA sobre las opiniones encontradas allí en su mayoría reflejan sesgos preexistentes. Personalmente, no veo esto como un caso de IA siendo maliciosa, aunque hay buena razón para preguntar por qué depende tanto de fuentes políticamente de izquierda.
Si desea un ejemplo de IA siendo deliberadamente maliciosa en sus respuestas, solo tiene que ver lo que el chatbot de IA chino "Deep Seek" ha sido sorprendido haciendo. Si usted es un programador que usa Deep Seek para ayudar a escribir código de software, y si Deep Seek sabe por leer sus redes sociales que usted simpatiza con Taiwán, el Tíbet o cualquier otra causa no favorecida por el Partido Comunista Chino, puede esperar que Deep Seek sugiera de forma encubierta código que incluya errores o vulnerabilidades de seguridad ocultas.
¿El Partido Comunista Chino programaría su chatbot de IA para intentar crear vulnerabilidades de software que luego podrían explotar? ¡Estoy sorprendido! ¡Sorprendido!
**************
Charles Miller es un consultor informático independiente con décadas de experiencia en TI y un tejano con un amor de por vida por México. Las opiniones expresadas son suyas. Puede ponerse en contacto con él al 415-101-8528 o al correo electrónico FAQ8 (at) SMAguru.com.
**************
*****
Por favor contribuya a Lokkal,
Colectivo en línea de SMA:
***
Descubre Lokkal: Misión
Visita la red social de SMA
Contact / Contactar
