Superinteligencia lejos del alcance – cálculo diario

¿Cuál es el último progreso en inteligencia artificial (AI)? La respuesta puede sorprenderte.
Todos somos conscientes de la prosperidad en las acciones relacionadas con la tecnología de IA y las noticias poco confiables sobre la IA. No puede abrir su navegador sin tener que leer sobre la IA y no puede ver sus acciones sin darse cuenta de que el precio de las acciones está impulsado por la evaluación del auge de la IA. Pero no es necesario cambiar pronto, las burbujas viven su propia vida y no están mal, solo porque los inversores saben que es una burbuja.
Dice que no hay duda sobre el poder de la IA. Está muy extendido en el panel de control de su automóvil en sus electrodomésticos y en su palma. En forma de una aplicación de IA, cada proveedor de Internet tiene uno desde Microsoft hasta Google, Facebook, Apple y OpenAI.
Por supuesto, la IA ha existido desde 1950. AI imitó el cerebro humano al establecer una red nerviosa. Estas redes tienen un nodo que está conectado entre sí, con el borde llamado SO. El nodo tiene fórmulas matemáticas que procesan los datos. Los datos de procesamiento producirán los resultados que van a otro nodo.
Los bordes pueden determinar el peso, con alguna entrada como más potente que otra. La salida se puede organizar para permitir que la salida sea más baja a un nivel más alto, que ocurrirá el procesamiento de entrada/salida. Hoy, estas redes nerviosas pueden ser increíblemente complicadas con miles de millones de nodos que han sido procesados por cientos de miles de millones de insumos.
Ai progresivo
AI Science hasta el final a principios de la década de 1980 debido a las limitaciones con respecto al poder del procesamiento y los canales tradicionales que se procesan bastante en la década de 1980, conocido como “Invierno de IA”. La falta de progreso en esta ciencia de la IA hasta 1990 y principios de 2000.
A partir del año 2005, hay tres deberes importantes que permiten la revolución de IA que vemos hoy. El primero es el poder de procesamiento de potencia que ha aumentado dramáticamente. Un Semicon de astillado más rápido de NVIDIA y AMD diseñado para juegos se ha adaptado al procesamiento de IA con gran éxito.
El segundo es la invención de modelos de idiomas grandes (LLM). Estos son algoritmo que permite a la IA escanear el contenido de miles de millones de páginas. (Incluyendo todas las palabras de Internet), duelos e imágenes y en busca de palabras e imágenes que tienden a unir la combinación de estas palabras e imágenes se han configurado y ensamblado como una nube que permite que el sistema dibuje datos según sea necesario para las imágenes de gramática y compuesta.
El tercer desarrollo es la invención de un transformador que ha sido entrenado antes (GPT) que permite que el procesador funcione más paralelo que en orden. El hilo paralelo se reúne al final del proceso. Pero la convergencia tiene más mejoras porque el transformador GPT también está actuando como un tipo de turboalimentado en chips de alta velocidad para dar el salto en el proceso de procesamiento juntos en un expone Chaele.
Fue en noviembre de 2022 lanzando el chat GPT-4 de OpenAI (que recibió 100 millones de usuarios en menos de 30 días). El progreso explicado anteriormente y lanzó el frenesí y el progreso tecnológico que todavía vemos.
Superinteligencia lejos
La dificultad de hoy es todo este progreso y la prosperidad de la IA. En general, se evalúa más allá de la capacidad de la tecnología para operar. Hable sobre la superinteligencia o la inteligencia avanzada, en la que los humanos son computadoras, lo que los monos son humanos en términos de habilidades, conocimiento y comprensión no tienen sentido. La computadora puede ser más rápido y más robots generales. Pero no veremos la verdadera superinteligencia
Razones relacionadas con las diferencias entre el uso de razones, parásitos y abundancia en una mano, que la computadora puede hacer dentro del alcance, la lógica y el significado desagradable, que es una habilidad humana importante que la computadora no puede hacer en absoluto. Estas habilidades no pueden programarse y marcar una de las diferencias importantes durante la función del cerebro humano y el procesamiento de la computadora.
Otras restricciones implican la función de las reglas de reducir un poco de rendimiento, lo que aumenta en el poder de la energía y la energía, el procesamiento, lo que resulta en un ligero aumento en la producción de grandes compañías de tecnología (Microsoft, Meta, Google, OpenAi, Oracle y algunas personas). En el último año, con mayores gastos de planificación, esto puede considerarse gastar dinero con hardware.
Los costos de desarrollo de software y los costos de entrada de datos son gastos adicionales. El aumento de la capacidad de procesamiento no recibe una mayor respuesta. Las ganancias aún son difíciles de entender. De hecho, las nuevas aplicaciones como GPT-5 de OpenAI son una decepción importante. El fenómeno de reducción de los rendimientos reducidos es bien conocido por los ingenieros en otros campos, pero puede ser un problema impactante para los inversores de IA que son conducidos por FOMO (temerosos de que desaparezca).
Otras limitaciones que se entienden menos son las reglas para conservar la información en el proceso de búsqueda. Esta ley ha sido estrictamente probada en matemáticas por mi colaboración. William A. Dembski, en un artículo publicado recientemente, es que la ley (incluida la IA más compleja) con el procesador más rápido y LLM no puede buscar nueva información. Solo pueden buscar información disponible.
La IA puede crear una búsqueda más rápida y espaciosa y puede encontrar relaciones que los esfuerzos humanos no pueden especificar en la vida. Pero esa es toda la información disponible a corto plazo. AI no tiene creatividad. No puede “pensar” cosas nuevas, a diferencia de los humanos que crean nuevas fórmulas y arte de manera regular. La IA no es “inteligente” o creativa. Que tan rápido es
En los experimentos recientes, las súper computadoras y el grupo de niños de primer grado fueron gobernados por té y estufas, y se les pidió que dibujara un círculo de computadoras. “Sepa” que el padre es una herramienta del escritor, a diferencia de la brújula, y tratando de dibujar un círculo con el gobernante de inmediato.
Este es un ejemplo de lógica inapropiada. (También conocido como instintos o sentido común) en el lugar de trabajo que los niños no pueden y computan la idea de un niño que es más efectivo que una súper computadora puede pedir a los inversores que pregunten si obtienen lo que obtienen de $ 400 mil millones (y cuentan).
En general, la IA no morirá. Los gastos pueden afectar el rendimiento reducido. AI no ofrece creatividad en absoluto. (Solo busque rápidamente) y los niños pueden hacerlo mejor que la maquinaria más rápida cuando el evento exige frenesí de IA, ¿va a golpear la pared?
Ajustar el tamaño de los datos
Hay algunas soluciones de aliento que pueden permitir que la IA agregue valor que no sea robots y procesamiento rápido. Uno de ellos es el uso de modelos de lenguaje pequeño (SLM) en lugar de LLM.
A diferencia de los LLM, que gira todos los SLM de Internet o sub. ¿Cuál es el total de miles de millones de mensajes en el conjunto de capacitación? Como el líder de la investigación de IA de IBM de David Cox, se dijo recientemente: “Su chat de recursos humanos no necesita conocer la física avanzada”.
Una de las diferencias entre SLMS y LLM es el número de parámetros que el modelo ha sido entrenado. LLMS utiliza cientos de miles de millones de parámetros, mientras que SLMS puede querer pagar solo 40 mil millones o menos SLM para usar menos de mil millones, lo que significa que SLMS puede funcionar más rápido con menos energía. También pueden ser más fáciles de ajustar el tamaño de los teléfonos inteligentes y otras aplicaciones, como automóviles autopulsados y electrodomésticos.
SLMS también tiene menos “alucinaciones” que LLM (lo que significa la tendencia de la IA en la invención de toda la tela para responder, con una narración completa). SLMS tiene una pequeña posibilidad de entrenamiento de LLM que causa contaminación en las unidades de entrenamiento. La investigación muestra que el entrenamiento de LLMS está aumentando, que incluye la producción anterior de LLMS. El kit de entrenamiento se diluirá con una mala producción. SLMS tiene más resistencia a esto porque su conjunto de entrenamiento es más técnico.
SLMS también funciona en un chip asequible, que puede tener efectos negativos para los fabricantes de monstruos como NVIDIA SLM que se ejecutan en un pequeño sistema de nubes, lo que puede hacer que se creen grandes granjas de servidores, ya sea redundantes o obsoletas.
SLMS es una buena noticia para desarrolladores y usuarios. Pero puede ser una muy mala noticia para los inversores que tienen apuestas con una compañía que construye un gran centro de datos utilizando el chip y LLM muy rápido. La cuenta regresiva para el colapso de las burbujas tecnológicas de IA puede comenzar.