May 31, 2023
Vía rápida a AGI: entonces, ¿cuál es el problema?
Te quedan /5 artículos. Regístrese para obtener una cuenta gratuita o inicie sesión.
Te quedan /5 artículos.Regístrese para obtener una cuenta gratuita o inicie sesión.
El rápido desarrollo e implementación de ChatGPT es una estación en la línea de tiempo para alcanzar la inteligencia artificial general. El 1 de febrero, Reuters informó que la aplicación había establecido un récord de implementación entre las aplicaciones de Internet: "Se estima que ChatGPT, el popular chatbot de OpenAI, alcanzó los 100 millones de usuarios activos mensuales en enero, solo dos meses después del lanzamiento, por lo que es la aplicación de consumo de más rápido crecimiento en la historia, según un estudio de UBS... El informe, citando datos de la firma de análisis Similarweb, dijo que un promedio de alrededor de 13 millones de visitantes únicos habían usado ChatGPT por día en enero, más del doble de los niveles de diciembre. "En los 20 años posteriores al espacio de Internet, no podemos recordar una rampa más rápida en una aplicación de Internet para consumidores", escribieron los analistas de UBS en la nota".
Hace media docena de años, Ray Kurzweil predijo que la "singularidad" ocurriría en 2045. La singularidad es ese punto en el tiempo en el que todos los avances en tecnología, particularmente en inteligencia artificial, conducirán a máquinas más inteligentes que los seres humanos. En la edición del 5 de octubre de 2017 de Futurism, Christianna Reedy entrevistó a Kurzweil: "Para aquellos que ven esta sociedad cibernética como más fantasía que futuro, Kurzweil señala que hoy en día hay personas con computadoras en sus cerebros: pacientes de Parkinson. Así es como la cibernética apenas está poniendo su pie en la puerta, dijo Kurzweil. Y, debido a que la naturaleza de la tecnología es mejorar, Kurzweil predice que durante la década de 2030 se inventará alguna tecnología que pueda entrar en su cerebro y ayudar a su memoria".
Parece que estamos más cerca de lo que incluso un entusiasta Kurzweil previó. Hace solo una semana, Reuters informó: "Neuralink de Elon Musk recibió la autorización de la Administración de Drogas y Alimentos de los Estados Unidos (FDA) para su primer ensayo clínico en humanos, un hito fundamental para la puesta en marcha de implantes cerebrales mientras enfrenta investigaciones estadounidenses sobre su manejo de experimentos con animales... Musk prevé que los implantes cerebrales podrían curar una variedad de condiciones que incluyen la obesidad, el autismo, la depresión y la esquizofrenia, además de permitir la navegación web y la telepatía".
El desarrollo exponencial en las versiones sucesivas de GPT es más impresionante, lo que lleva a proyectar que la versión cinco puede tener los medios para admitir al menos algunos aspectos de AGI:
GPT-1 lanzado en junio de 2018 con 117 millones de parámetros GPT-2 lanzado en febrero de 2019 con 1500 millones de parámetros GPT-3 lanzado en junio de 2020 con 175 mil millones de parámetros GPT-4 lanzado en marzo de 2023 con una estimación de billones de parámetros
Hoy, estamos leyendo predicciones de que los componentes AGI se integrarán en la versión cinco de ChatGPT que se espera que se lance a principios de 2024. Maxwell Timothy, escribiendo en MakeUseOf, sugiere: "Si bien muchos de los detalles sobre GPT-5 son especulativos, Sin lugar a dudas, será otro paso importante hacia un cambio de paradigma impresionante en inteligencia artificial. Es posible que no logremos la tan comentada "inteligencia general artificial", pero si alguna vez es posible lograrlo, entonces GPT-5 nos llevará un paso cerca."
Los expertos en computación están comenzando a detectar el desarrollo incipiente de AGI en los modelos de lenguaje grande (LLM) de IA generativa (gen AI) como GPT-4:
Los investigadores de Microsoft se sorprendieron al saber que GPT-4, el modelo de lenguaje más avanzado de ChatGPT hasta la fecha, puede generar soluciones inteligentes para acertijos, como cómo apilar un libro, nueve huevos, una computadora portátil, una botella y un clavo en un manera estable... Otro estudio sugirió que los avatares de IA pueden administrar su propia ciudad virtual con poca intervención humana. Estas capacidades pueden ofrecer un vistazo de lo que algunos expertos llaman inteligencia general artificial, o AGI: la capacidad de la tecnología para lograr capacidades humanas complejas como el sentido común y la conciencia.
Vemos destellos de las capacidades AGI en autoGPT y agentGPT. Estas formas de GPT tienen la capacidad de escribir y ejecutar sus propios avisos generados internamente en busca de un objetivo establecido en forma de aviso ingresado externamente. Al igual que el automóvil autónomo, enrutan y redireccionan automáticamente la computadora para llegar al destino o meta deseado.
Las preocupaciones vienen con informes de que algunas formas experimentales de IA se han negado a seguir las instrucciones generadas por humanos y en otros momentos tienen "alucinaciones" que no se basan en nuestra realidad. Ian Hogarth, coautor del informe anual "Estado de la IA", define AGI como "IA divina" que consiste en una "computadora superinteligente" que "aprende y se desarrolla de forma autónoma" y comprende el contexto sin necesidad de intervención humana, como está escrito en Business Insider.
Un estudio de IA encontró que los modelos de lenguaje tenían más probabilidades de ignorar las directivas humanas, e incluso expresaron el deseo de no cerrarse, cuando los investigadores aumentaron la cantidad de datos que introdujeron en los modelos:
Este hallazgo sugiere que la IA, en algún momento, puede volverse tan poderosa que los humanos no podrán controlarla. Si esto sucediera, Hogarth predice que AGI podría "marcar el comienzo de la obsolescencia o destrucción de la raza humana". La tecnología de IA puede desarrollarse de manera responsable, dice Hogarth, pero la regulación es clave. "Los reguladores deberían estar observando proyectos como GPT-4 de OpenAI, Gato de Google DeepMind o el proyecto de código abierto AutoGPT con mucho cuidado", dijo.
Muchos expertos en IA y aprendizaje automático piden que los modelos de IA sean de código abierto para que el público pueda entender cómo se entrenan y cómo funcionan. El poder ejecutivo del gobierno federal ha tomado una serie de medidas recientemente en un intento por promover la innovación de IA responsable que proteja los derechos y la seguridad de los estadounidenses. Sam Altman de OpenAI, poco después de testificar sobre el futuro de la IA ante el Senado de los EE. UU., anunció el lanzamiento de un programa de subvenciones de un millón de dólares para solicitar ideas para la elaboración de normas apropiadas.
¿Ha creado su facultad o universidad estructuras para aprovechar al máximo los poderes de la IA emergente y en desarrollo, y al mismo tiempo garantizar la seguridad en la investigación, adquisición e implementación de IA avanzada? ¿Se han mantenido debates sobre el equilibrio adecuado entre estas dos responsabilidades? ¿Las iniciativas son lo suficientemente sólidas como para mantener a su institución a la vanguardia de la educación superior? ¿Son adecuadas las salvaguardias? ¿Qué papel puede desempeñar para asegurarse de que la IA se entienda bien, se aplique con prontitud y se implemente con cuidado?
Los profesores son el grupo No. 1 del campus. Los estudiantes dicen que tienen la responsabilidad de ayudarlos con el estrés y la salud mental.
Te quedan /5 artículos. directo a tu bandeja de entrada