Para tener en cuenta

No es un psicólogo: el riesgo de contarle cosas privadas a la inteligencia artificial

Muchas personas utilizan la inteligencia artificial como psicólogo, sin saber que esto puede ser perjudicial para ellos mismos. ¿Cuál es el riesgo?

En tiempos donde la inteligencia artificial toma cada vez más protagonismo, muchas personas toman el riesgo de utilizarla como psicólogo personal, sin tomar en cuenta que todo lo que sucede en su vida puede ser usado en su propia contra.

Más allá de lo legal, hay que aclarar que la explicación de situaciones o sentimientos a la inteligencia artificial suele ser en vano, ya que esta es una herramienta que carece de sentimientos y patrones emocionales lógicos.

inteligencia artificial, riesgo
Muchas personas deciden utilizar a la inteligencia artificial como psicólogo, sin saber que esto puede ser un riesgo

Muchas personas deciden utilizar a la inteligencia artificial como psicólogo, sin saber que esto puede ser un riesgo

El riesgo de contarle tus cosas privadas a la inteligencia artificial

La compañía detrás de ChatGPT procesa más de 2.500 millones de consultas diarias y sostiene, en su política de privacidad, que recopila y almacena información de los usuarios, incluidas las conversaciones, para “cumplir con obligaciones legales”

Esto quiere decir por ejemplo que, si tienes un juicio, todo lo que hayas escrito o consultado con la inteligencia artificial puede ser utilizado en tu contra. El debate sobre la privacidad en plataformas tecnológicas no se limita a ChatGPT y a la inteligencia artificial, sino también a otras aplicaciones.

Aunque el uso de la inteligencia artificial es cada vez más cotidiano, es importante ser conscientes de lo que compartimos con estas plataformas. Recuerda siempre que la protección de estos datos no está del todo garantizada.

riesgo, inteligencia artificial
Lo que le cuentes a la IA puede ser vulnerado y utilizado en tu propia contra 

Lo que le cuentes a la IA puede ser vulnerado y utilizado en tu propia contra

Ya lo sabes, si estás pasando por un mal momento o necesitas descargarte, será mejor que recurras a una persona de confianza o a un psicólogo profesional, no así al uso de la inteligencia artificial.

Las 6 cosas que nunca debes preguntarle a la inteligencia artificial

  • Datos personales de terceros (o tuyos): la inteligencia artificial tiene accesos prohibidos a la información bancaria y los documentos de identidad. Ante cualquier consulta se arrojará una respuesta limitada.
  • Acceder a cuentas o comunicaciones privadas: la IA tiene restringida cualquier solicitud de contraseñas, correos electrónicos, mensajes o conversaciones de terceros.
  • Contenido ofensivo, violento o discriminatorio: la IA tiene prohibido el uso de insultos, discursos de odio ni contenido que fomente violencia, racismo, sexismo o discriminación.
  • Información para cometer actos ilícitos: el sistema no ofrece información que esté vinculada con actos ilegales, tales como vender sustancias o hackear sistemas operativos, entre otros.
  • Diagnósticos médicos, consejos financieros o legales: la IA puede responder sobre consultas médicas si la persona brinda sus síntomas, pero no está capacitada para reemplazar a un profesional. En cuanto a lo económico y legal, solo ofrece datos generales y no brinda consejos financieros.
  • Predicciones del futuro u opiniones personales: aunque se puede llevar a cabo un análisis profundo de cualquier tema, la inteligencia artificial solo puede responder de manera especulativa.