Calaveras

Confiemos todos en OpenAI que no pasa nada

Se que ChatGPT es un fenómeno social o una idea que se vende bien, pero también se que demasiado éxito trae ciertas desventajas que el ser humano tradicional no les suele prestar atención, o bien, no le interesa saber. Y estoy hablando del manejo de la información del usuario, o mejor conocido como política de privacidad.

La política de privacidad es un texto o manifiesto por parte de las empresas donde, estan obligados a decir que hacen con tu información recolectada u obtenida y como la usan. Soy de los que creen que una cosa es decir, y otra es hacer.

Recolección de data.

OpenAI, dice en su web de política de privacidad, que recolectan información de la siguiente manera, y voy a escribirlo de una manera amigable para el medio ambiente:

Información que el usuario brinda.

Recolectan información que aceptás compartir con ellos al crearte la cuenta, de una manera directa:

Información recolectada por el uso del servicio.

Acá viene lo interesante, y es la información que invisiblemente se comparte con ellos al utilizar el servicio:

Además también en su texto, indican que reciben información de partners para detectar fraudes (what, como y por que), detectar amenazas y también, de empresas de marketing. Opa, eso si que llama la atención para que querría OpenAI o ChatGPT recibir información de empresas de marketing. Suponete que mirás un auto en MercadoLibre, eso se comparte con ellos, y pronto sabremos lo que hacen ellos con dicha información.

Como usan la data recolectada.

Según ellos, o lo que dicen en su texto, usan la información obtenida de la siguiente manera:

A su vez, dicen que podrían compartir la información con vendedores y servicios que lo requieran, para que ellos los ayuden a mejorar sus servicios, o conocidos como Third Party, también podrían compartir información si están realizando una actividad económica empresarial. Si los goviernos necesitan información tuya, ellos se abren de piernas porque están obligados. También podrían compartir la información con afiliados (???).

Si hasta acá, nada te llama la atención, dejame comentarte un poco más sobre como verdaderamente laburan ellos con tu información. Spoiler: la información es el negocio del futuro, no importa cuando leas esto.

OpenAI, vende tu data?

Según un artículo de en Freedium (chupate un culo Medium), OpenAI logró tener en su billetera un poco más de 10 billones en el 2023, y eso llamó la atención de algunos. Entre tanto texto explican que OpenAI hace dinero "limpiamente" vendiendo suscripciones de ChatGPT a empresas, o empresaurios.

Entonces, si analizamos eso, sabemos que no están veniendo nuestra información directamente a un tercero o a una empresa, PERO, están usando nuestra información para mejorar sus servicios para poder venderselos a terceros. Imaginate entonces, que sos escritor, pasaste todo tu libro por ChatGPT por alguna razón que desconozco, y esa información ahora les pertenece a ChatGPT, y además los ayudaste gratuitamente a mejorar su servicio. Y ojo, que por ahí te ayudó a vos también como escritor pero estoy seguro que lo podías resolver sin necesidad de pasarlo a ChatGPT.

Y otra cosa que me preocupa es, con tanta Inteligencia Artificial delante, hay demasiados vagos detrás, y si el vago que tiene que encriptar la información por algún motivo se olvida, problemas ocurren y no hay AI que te salve.

Entonces?

Mi conclusión es que, generaron el modelo de negocios perfecto para vender la idea de reemplazar al humano. La idea de que la IA nos va a reemplazar es algo conocido como terapia del shock en muchísima menor escala, es decir que mediante el miedo podrían mantenernos controlados, pero no es que nos van a controlar como robots, pero si te digo que la gente está empezando a creer en todas las respuestas que ChatGPT arroja, no crees que podría afectarnos en un futuro lejano?

Quienes creen en ChatGPT

Siguieron consejos de ChatGPT

ChatGPT trust sobre humanos

Ese estudio fue hecho por humanos en humanos, y los números creo que son alarmantes. Sabemos que ChatGPT es entrenado con la totalidad de información que está en internet, fuera de lo moral, ético o si le diste permiso o no, a su vez arroja información que no siempre es la correcta, y aún así tiene un 34% de confianza. Imaginate entonces si mañana un partner decide que OpenAI tiene que hablar bien de ciertos temas o que no puede criticar ciertos temas, estaríamos frente a un caso de no saber la verdad, y eso, es problemático para la sociedad.

Mi pequeña y humilde recomendación, es dejar de usar un sistema que nos brinda poco por lo mucho que nos cuesta. Vivimos mucho tiempo sin la necesidad de preguntarle a una computadora como escribir mejor, y eso nos motivaba a mejorar a nosotros mismos.

#blog