IA sí, pero no así: 5 prácticas a evitar con la inteligencia artificial

Jairo G. Sarmiento Sotelo
IA sí, pero no así: 5 prácticas a evitar con la inteligencia artificial

La inteligencia artificial se ha convertido en una herramienta clave: nos permite procesar y analizar información con mucha más rapidez que antes y realizar múltiples tareas en cuestión de segundos.

Sin embargo, el entusiasmo por esta tecnología puede conllevar una sobreconfianza ciega en sus capacidades, llevándonos a confundir la habilidad de procesar texto con una verdadera comprensión humana. Esto puede llevarnos a terrenos muy riesgosos.

En Datasketch nos interesa explorar las oportunidades que nos da la IA, pero sin perder de vista el sentido crítico en su uso. Por esa razón, te explicamos cinco prácticas cotidianas en las que deberías evitar delegar ciegamente el trabajo a la IA:

1. Autodiagnóstico médico

Es tentador: introduces tus síntomas en un chatbot y te da un posible diagnóstico. El problema es que la IA no es un médico. No conoce tu historial clínico, no puede realizar un examen físico y, lo más importante, es propensa a alucinar, es decir, inventar información que suena creíble.

Utilizar la IA para autodiagnosticarte puede traer diferentes riesgos; desde generarte una preocupación innecesaria al sugerir enfermedades graves ante síntomas leves, hasta poner en riesgo tu salud al tomar remedios o medicamentos recetados por un chatbot. 

Pese a que esta herramienta ha brindado un sinfín de posibilidades al mundo médico y científico, utilizarla de forma autónoma en lugar de ir al médico es una práctica irresponsable que puede poner en riesgo tu salud.

2. La IA como terapeuta o amigo

Han surgido aplicaciones que ofrecen “terapia” con IA. Si bien pueden dar consejos y un apoyo psicológico, no reemplazan la labor de un terapeuta. No está capacitada para manejar una crisis de salud mental de forma segura, no puede entender el contexto profundo de un trauma y no tiene responsabilidad ética ni legal. 

Sabemos que para muchas personas los chatbots de IA se han convertido en un espacio de desahogo inmediato, accesible y privado; sin embargo, confiar ciegamente en esta tecnología tus sentimientos y emociones puede generar efectos negativos. 

Por ejemplo, el diario El Mundo reportó que los padres de un adolescente en Estados Unidos culparon a un chatbot de “alentar y validar” los pensamientos suicidas de su hijo, quien cultivó una relación íntima con una de estas herramientas por varios meses antes de suicidarse.  

Mientras tanto, las autoridades investigan junto a OpenAI, el posible caso en el que un chatbot pudo alentar el homicidio de un hombre a su madre, y luego su suicidio, según informó en septiembre el diario El País.

De acuerdo con una investigación reciente realizada por Open AI junto al MIT Media Lab, aquellas personas que consideran a ChatGPT como un amigo tienen más probabilidades de experimentar efectos negativos derivados del uso del chatbot. 

3. El “Asesor Financiero IA”: Tomar decisiones de inversión

“¿En qué criptomoneda debo invertir?” “¿Debería vender mis acciones?”. Pedirle a un chatbot que diseñe tu futuro financiero es una apuesta peligrosa. La IA no es una entidad regulada, no responde por sus consejos y sus respuestas se basan en patrones pasados, no en una comprensión real de tu perfil de riesgo o de eventos futuros impredecibles.

Además, los mercados son influenciados por eventos globales en tiempo real (pánico, política, desastres naturales) que un modelo estático no puede prever. La IA no tiene responsabilidad fiduciaria; no tiene nada que perder si su “consejo” te lleva a la ruina. Las finanzas personales requieren una estrategia y una comprensión profunda del contexto, no una apuesta algorítmica.

4. El “Abogado IA”: Confiarle asuntos legales complejos

La IA puede resumir una ley, pero no puede hacer una estrategia legal. Se han documentado casos de abogados en EE. UU. que han sido sancionados por presentar argumentos en corte basados en jurisprudencia que la IA inventó por completo. La ley requiere interpretación, ética y conocimiento del contexto, cosas que la IA no posee.

El derecho no es solo un conjunto de reglas; es su interpretación y análisis en un proceso legal. La IA puede resumir un documento, pero no puede “interpretar la intención” del legislador. Confiar en ella para un contrato o una defensa es arriesgarse a basar decisiones críticas en información inventada.

5. La sustitución del pensamiento crítico

Pese a que la IA nos permite ahorrar horas de trabajo en diferentes trabajos, delegarle a esta herramienta el 100% de la toma de decisiones o la respuesta final a un problema complejo y aceptarla sin cuestionamientos significa renunciar al criterio humano. 

Esta práctica recurrente puede resultar en una renuncia a nuestras propias habilidades. La IA es una herramienta para acelerar el borrador o limpiar miles de filas de datos, pero el humano es quien debe decidir qué historia cuentan esos datos.

IA

🚀 Oportunidad limitada: ¡Sé uno de nuestros 100 socios de datos que están definiendo el futuro de IA con datos verificados!

Únete a la Red