La inteligencia artificial se ha convertido en el sector tecnológico más importante del momento. Desde finales del año pasado, a raíz de la irrupción en escena de herramientas como Midjourney, un agente capaz de crear imágenes a raíz de instrucciones, multitud de s y empresas sacan partido a las bondades de estas herramientas. Sin embargo, un reciente estudio ha demostrado que los s tienen motivos para preocuparse si utilizan en exceso estas herramientas.
Martin Vechev, profesor de informática, dirigió un reciente estudio (recogido por Ars Technica) de la ETH Zurich centrado en la cantidad de información que son capaces de recabar los agentes basados en inteligencia artificial. Al parecer, a partir de conversaciones banales, los chatbots de IA pueden llegar a deducir información privada y sensible de los s. Y esto, aunque a algunos no les parezca peligroso, es una llamada de atención a tener en cuenta, ya que esta información podría acabar en manos de compañías con fines publicitarios o, en el peor de los casos, de delincuentes con malas intenciones.
OpenAI se defiende de las acusaciones y Google y Meta no hacen comentarios
De esta forma, los chatbots pueden llegar a deducir con una precisión alarmante datos personales como la ubicación, la ocupación, la edad, el estado civil u otro tipo de información sensible de los s con los que charlan. Así, esto conlleva un gran problema, ya que los estafadores podrían utilizar chatbots para adivinar este tipo de información y, a su vez, también podríamos asistir a una nueva era de publicidad, debido a que las empresas tendrían la capacidad de comprar estos datos para utilizarlos de forma agresiva.
OpenAI, los creadores de ChatGPT, han asegurado a través de Niko Felix (su portavoz) que se esfuerzan por eliminar la información personal. De hecho, afirma que sus modelos solo “aprenden sobre el mundo, no sobre los particulares”. A su vez, Anthropic, otra de las señaladas por el estudio, hizo alusión a su política de privacidad y aseguró que ni recopila ni vende información personal. Por su parte, Meta y Google rehusaron hacer comentarios al respecto.
Ver 2 comentarios