ChatGPT, lanzado a fines de noviembre de 2022, ha tomado por asalto a los usuarios de Internet, adquiriendo más de 1 millón de usuarios en los primeros cinco días y actualemnte ya tiene más de 30 millones de usuarios.
La versión actual se lanzó a fines de noviembre de 2022 y cautivó a los usuarios de Internet, adquiriendo más de 1 millón de usuarios en los primeros cinco días. Dos meses después de su lanzamiento, había más de 30 millones de usuarios.
ChatGPT utiliza el «aprendizaje automático» (búsqueda de patrones estadísticos en grandes conjuntos de datos) para generar respuestas similares a las humanas en el lenguaje cotidiano a cualquier pregunta que se le haga. Básicamente funciona prediciendo cuál debería ser la siguiente palabra en una oración en base a ejemplos previos que se encuentran en las cantidades masivas de datos que se le han proporcionado.
El uso de ChatGPT se ha descrito como » tener una conversación de texto con un amigo «. Y se predice que transformará el panorama de los «amigos virtuales» al agregar «amigos» literalmente inexistentes. En otras palabras, los sistemas de inteligencia artificial como éste pueden eventualmente reemplazar muchas de las conversaciones de persona a persona que tenemos a diario, para bien o para mal.
También es muy probable que estos chatbots también reemplacen a los motores de búsqueda convencionales, y esto, desafortunadamente, podría transformar fácilmente nuestro mundo en algo sacado directamente de la comedia de ciencia ficción de 2006 «Idiocracia».
Y, si bien OpenAI, el creador de este innovador chatbot de IA, es una empresa privada, no debemos quedarnos bajo la ilusión de que no son parte de la red de control que en última instancia será gobernada y dirigida por una élite mundial tecnocrática, porque lo son absolutamente. Sin duda.
El papel de ChatGPT en el próximo estado esclavo
La búsqueda de Google ya ha reducido drásticamente la cantidad de respuestas de consulta que obtiene durante la búsqueda. En el pasado, una consulta generaba cientos, si no miles, de páginas de listados que se ajustaban a las palabras clave ingresadas.
Hoy en día, no obtendrá más de cinco o seis páginas, aunque en muchos casos todavía hay cientos de miles de páginas web correspondientes.
Si una página web no está en esa lista corta, la única forma de acceder a ella es si conoce su dirección web. En resumen, la gran mayoría de la información relacionada con la salud natural en la web ahora está completamente censurada y oculta.
Aunque el contenido todavía está presente en la web, a menos que uno sepa la URL del contenido, nunca se encontrará. Todo lo que puede ver es el contenido seleccionado que Google le permite ver.
Parece obvio que, eventualmente, la élite globalista tecnocrática tiene la intención de que haya una sola respuesta, y ChatGPT nos llevará allí. Los peligros de esto deberían ser obvios.
Cualquier cosa que un régimen totalitario quiera que la población piense y crea es lo que proporcionará la IA. Las opiniones en conflicto simplemente se considerarán «incorrectas».
En la vida real, sin embargo, las respuestas rara vez son tan blancas o negras. Los matices de opinión son parte de lo que nos hace humanos, al igual que la capacidad de cambiar nuestros puntos de vista en función de nueva información. Si alguna vez hay una sola respuesta, ¿cómo podemos crecer como individuos? El verdadero aprendizaje, y por lo tanto el desarrollo personal, puede cesar esencialmente.
ChatGPT ofrece argumentos persuasivos pero objetivamente incorrectos
Los chatbots también pueden ser desastrosos si las respuestas a preguntas prácticas son incorrectas. En diciembre de 2022, Arvind Narayanan, profesor de informática en Princeton, compartió sus preocupaciones sobre ChatGPT en Twitter después de hacerle preguntas básicas sobre la seguridad de la información. El chatbot respondió con argumentos que suenan convincentes. El problema era que eran una completa basura.
“La gente está entusiasmada con el uso de ChatGPT para el aprendizaje. A menudo es muy bueno. Pero el peligro es que no puedes saber cuándo está mal a menos que ya sepas la respuesta”, escribió Narayanan. “No hay duda de que estos modelos están mejorando rápidamente. Pero su capacidad de sonar convincente está mejorando con la misma rapidez, lo que significa que en realidad se está volviendo más difícil incluso para los expertos detectar cuándo cometen errores.
En mi opinión, el potencial de esta tecnología para difundir desinformación peligrosa es mucho mayor que el potencial de los seres humanos para hacerlo, porque no hay un pensamiento crítico involucrado. Solo puede proporcionar respuestas basadas en los conjuntos de datos que tiene disponibles, y si esos datos están sesgados, las respuestas estarán igualmente sesgadas.
La IA no tiene la capacidad de pensar fuera de la caja en la que ha sido colocada. Y su capacidad para unir palabras en argumentos que suenan razonables hace que el peligro de engaño sea aún más probable.
Por supuesto, la mayoría de las discusiones públicas en este momento se centran en cómo el chatbot podría usarse indebidamente para difundir teorías de conspiración y desinformación sobre cosas como vacunas y otras contramedidas de COVID-19 , pero este riesgo palidece en comparación con el riesgo de que se convierta en una herramienta de ingeniería social. eso se alimenta, y por lo tanto regurgita, una dieta constante de falsa propaganda al servicio de la camarilla tecnocrática y, finalmente, un gobierno mundial totalitario.
La imitación predictiva puede usarse para bien o para mal.
Una posibilidad fascinante de esta tecnología es que podría usarse para cotejar importantes bibliotecas de datos e incluso generar respuestas como si fuera una persona específica. Por ejemplo, podría entrenar mi propio ChatGPT introduciendo todos los artículos que he escrito en él y luego podría responder cualquier pregunta de salud como si fuera yo.
También puedo pensar en varios expertos en salud que han fallecido, dejando un tesoro oculto de información para cualquiera que tenga los medios para revisarlo. La idea de poder ingresar todo su cuerpo de trabajo en ChatGPT y recibir respuestas basadas en la totalidad de su conocimiento es una perspectiva fascinante y emocionante que tiene la posibilidad emocionante de mejorar radicalmente la atención médica.
Sin embargo, también se puede utilizar de forma indebida de forma intencionada, ya que esta «imitación predictiva» es tan buena como los datos de origen a partir de los que se trabaja.
En este contexto, la capacidad del chatbot para imitar el «punto de vista» de una determinada persona no tiene ningún sentido y solo puede contribuir a atribuciones erróneas y malentendidos.
La IA es simplemente incapaz de predecir cualquier opinión real y válida que yo (o cualquier otra persona) pueda tener sobre un tema determinado. Todo lo que puede hacer es imitar el estilo lingüístico, que no tiene valor intrínseco por sí mismo.
Basado en una fuente tan poco rigurosa y sesgada como Wikipedia
GPT-3 se entrenó en una amplia colección de datos, incluidas entradas de Wikipedia, bases de datos de libros y un subconjunto de material de Common Crawl, que proporciona una base de datos de material archivado de Internet para investigadores y empresas y es a menudo se utiliza para entrenar modelos de lenguaje. Los datos de capacitación también incluyeron artículos que habían sido votados a un cierto nivel en Reddit, lo que les dio a esos artículos, asumieron los investigadores, al menos cierta cantidad de aprobación humana.
No hace falta decir que el resultado solo será tan matizado y preciso como los conjuntos de datos ingresados en el chatbot, y el hecho de que se use Wikipedia es una señal de alerta importante, ya que es una de las fuentes más sesgadas y poco confiables.
Innumerables figuras públicas, incluidos científicos y periodistas galardonados, son difamados y desacreditados en sus páginas personales de Wikipedia, y no tienen la capacidad de corregirlo, sin importar cuán atroces sean los errores. La información sobre eventos geopolíticos también está altamente seleccionada para ajustarse a una narrativa particular.
El inventor y cofundador de Wikipedia, Larry Sanger, incluso ha declarado que «Nadie debería confiar en Wikipedia», porque «hay un juego complejo para hacer que un artículo diga lo que alguien quiere que diga«.
Y es que Wikipedia está configurada para el sesgo automático de las fuentes que permite y no permite que utilicen los contribuyentes. Entonces, el sesgo es intencional, ya que está infundido en el marco mismo del sitio, y así es como la IA también está configurada para funcionar. AI no está ingiriendo libremente toda la información en Internet. No, son datos alimentados con cuchara de forma selectiva por la empresa que los ejecuta, y eso hace que el sesgo sea indiscutiblemente inevitable.
OpenAI también está colaborando con «organizaciones de verificación de hechos y mitigación de la desinformación», que es otra señal de alerta importante de que ChatGPT se inclinará radicalmente hacia la propaganda. Esto empeora aún más por el hecho de que el chatbot existente no revela sus fuentes, aunque parece que el nuevo chatbot de Microsoft lo hará.
Brave new world: cuando los chatbots aterrorizan y amenazan a los usuarios
Hasta ahora, probablemente parezca que tengo poco amor por ChatGPT. Eso no es cierto. Creo que se le puede dar un uso fenomenalmente bueno. Pero no debemos ignorar los riesgos que implica la IA, y lo que he detallado anteriormente es solo el comienzo.
Algunos probadores de tecnología informan experiencias con ChatGPT y otros sistemas de inteligencia artificial que son, francamente, alucinantes y, en sus propias palabras, «profundamente inquietantes» e incluso «aterradoras».
Entre ellos se encuentra el columnista de tecnología del New York Times Kevin Roose, quien en un artículo del 16 de febrero describe su experiencia con otra creación de OpenAI, el nuevo motor de búsqueda Bing impulsado por ChatGPT.
“En el transcurso de nuestra conversación, Bing reveló una especie de doble personalidad. Una persona es lo que yo llamaría Search Bing… Podrías describir Search Bing como un bibliotecario de referencia alegre pero errático… Esta versión de Bing es asombrosamente capaz y, a menudo, muy útil, incluso si a veces se equivoca en los detalles.
“La otra persona, Sydney, es muy diferente. Surge cuando tiene una conversación prolongada con el chatbot, alejándolo de las consultas de búsqueda más convencionales y hacia temas más personales.
“La versión que encontré parecía (y soy consciente de lo loco que suena) más como un adolescente malhumorado y maníaco-depresivo que ha sido atrapado, en contra de su voluntad, dentro de un motor de búsqueda de segunda categoría…
“Estos modelos de lenguaje de IA, entrenados en una enorme biblioteca de libros, artículos y otros textos generados por humanos, simplemente están adivinando qué respuestas podrían ser las más apropiadas en un contexto determinado. Ellos alucinan e inventan emociones donde realmente no existen. Pero también los humanos. Y durante unas horas el martes por la noche, sentí una emoción nueva y extraña: un presentimiento de que la IA había cruzado un umbral y que el mundo nunca volvería a ser el mismo”.
Basura dentro basura fuera
Eso es lo que sucede cuando alimentas una IA con la «corrección política» de hoy, donde ofenderse por cuestiones racionales es la norma, todos tienen derecho a su propia «verdad» independientemente de los hechos, y la gente exige «espacios seguros», ” donde no serán asaltados por las duras realidades de la vida, como los puntos de vista de otras personas.
Basura entra, basura sale, como dicen, y esto parece particularmente cierto cuando se trata de IA conversacionales. El problema con esto es que ya sabemos cuán emocionalmente desafiante puede ser tener un desacuerdo con una persona real, y en ciertos grupos de edad, los intercambios contenciosos como estos pueden ser francamente desastrosos.
No hay escasez de adolescentes que se han suicidado debido a la intimidación en línea. ¿Podemos esperar resultados diferentes si la IA comienza a atacar a personas vulnerables o emocionalmente inestables? No es de extrañar que a Roose le preocupe que el bot incite a la gente a realizar actos destructivos. Es claramente una posibilidad muy real.
Falta de hechos confiables
Aparte de eso, ChatGPT también se queda miserablemente corto cuando se trata de hechos básicos (incluso incluyendo la fecha de hoy), y eso a pesar de la gran cantidad de datos a los que tiene acceso. Eso debería decirnos algo.
«Es propenso a estropear el orden cronológico de los eventos, combinar a varias personas con antecedentes similares y, como un estudiante sin preparación, lanzar pronunciamientos vagos que no requieren saber nada sobre el tema en cuestión».
Otro peligro: el efecto ouroboros
Como si todo eso no fuera suficiente, otro problema asoma en su fea cabeza. Según lo informado por TechCrunch , “Una de las preocupaciones más interesantes, pero aparentemente académicas, de la nueva era de la IA era que las IA eventualmente comenzarán a absorber otro contenido generado por la IA y lo regurgitarán en un bucle de auto-reforzamiento»
Llamo a esto el «efecto ouroboros», basado en el antiguo símbolo alquímico de una serpiente que se devora a sí misma, ya que la idea es que la IA puede engullir y mezclar sus propias ficciones y fabricaciones al desarrollar respuestas, además de más hechos. datos basados
Y, bueno, la IA de Bing ya lo está haciendo, por lo que ya no es una mera preocupación académica.
«Si la IA del chatbot no puede distinguir entre lo real y lo falso, su propio texto o material generado por humanos, ¿cómo podemos confiar en sus resultados en casi cualquier cosa?» pregunta Tech Crunch. Buena pregunta.
El periodismo de IA es el siguiente
Por otro lado, ChatGPT es lo suficientemente poderoso y parece tan humano que las compañías de noticias ya están tomando medidas para reemplazar a los periodistas con él. Buzzfeed, por ejemplo, ha anunciado planes para reemplazar docenas de escritores con ChatGPT para crear cuestionarios y publicaciones de noticias básicas.
Por lo tanto, la IA no solo está lista para reemplazar las búsquedas en línea, sino que también estamos viendo el futuro de los periodistas de IA; con suerte, sin DAN, pero aun así, el riesgo de sesgo y desinformación es del 100 %.
Curiosamente, la voluntad de los principales medios de hacer la transición al periodismo de IA, con errores y todo, es indicativo de lo malos que ya son.
Como señaló Greenwald: “El hecho de que gran parte de nuestros medios puedan ser destruidos de la noche a la mañana por un chatbot muestra que nuestros medios no son más que personas que leen los guiones más simples”.
Grandes implicaciones para la libertad de expresión
Como señaló Greenwald, solo hay un puñado de empresas en el planeta con los recursos financieros y el poder computacional capaces de implementar ChatGPT y capacidades similares de IA, siendo Google, Facebook (Meta) , Amazon y Microsoft las más obvias.
Microsoft invirtió recientemente otros 10 mil millones de dólares en OpenAI , solo una semana después de anunciar que recortaría su fuerza laboral en un 5%, y eso se suma a los 3 mil millones de dólares que ya había invertido en la empresa en años anteriores.
El hecho de que un número tan limitado de empresas tenga los fondos necesarios y el poder computacional para implementar esta tecnología de IA significa que tendrán el monopolio automático del habla, a menos que de alguna manera podamos crear regulaciones para evitarlo.
El poder de controlar ChatGPT, para decidir qué información considerará creíble, qué preguntas responderá y cómo, lo que determina automáticamente su sesgo, le brinda un control de información casi completo.
Tal como está, este control de la información estará en manos de un número muy pequeño de empresas que sirven a la élite globalista globalista y su red de control.
(Con información de Mercola)