Experto en IA afirma que las grandes empresas tecnológicas utilizan el miedo a la IA para aumentar las ganancias
hace 1 año
Los líderes de las grandes tecnologías están exagerando la amenaza existencial que la IA representa para la humanidad para solidificar sus cuotas de mercado a través de la regulación gubernamental, dijo el lunes una figura destacada de la inteligencia artificial a una publicación financiera australiana.
"Definitivamente hay grandes empresas tecnológicas que preferirían no tener que competir con el código abierto, por lo que están creando temor a que la IA conduzca a la extinción humana", dijo Andrew Ng, cofundador de Google Brain (ahora DeepMind) y colaborador. profesor de la Universidad de Stanford, dijo a John Davidson, del Australian Financial Review.
"Ha sido un arma para que los lobbystas aboguen por una legislación que sería muy perjudicial para la comunidad de código abierto", añadió.
El director ejecutivo de OpenAI, Sam Altman, ha sido franco sobre la necesidad de una regulación gubernamental de la IA. En mayo, Altman, junto con el director ejecutivo de DeepMind, Demis Hassabis, y el director ejecutivo de Anthropic, Dario Amodei, firmaron una declaración del Centro para la seguridad de la IA que comparaba los riesgos de la IA para la humanidad con los de las guerras nucleares y las pandemias.
"La noción de que los sistemas de inteligencia artificial se saldrán de control y extinguirán a los humanos es una trama convincente en los thrillers de ciencia ficción, pero en el mundo real, el temor es más una exageración que un escenario probable", dijo Aswin Prabhakar, analista de políticas. para el Centro para la Innovación de Datos, un grupo de expertos que estudia la intersección de datos, tecnología y políticas públicas, en Washington, DC
Prabhakar explicó que el camino hacia la creación de inteligencia artificial general (AGI), una forma de IA que supere el intelecto humano en todos los campos, todavía tiene un camino largo e incierto por delante.
"Incluso si se realizara AGI, lo cual no es seguro, para que represente una amenaza existencial, tendría que volverse rebelde y liberarse del control de sus creadores humanos, lo cual sigue siendo un escenario increíblemente especulativo", dijo. TechNewsWorld.
Añadió que contemplar un apocalipsis inducido por la IA deja de lado injustamente los inmensos y concretos beneficios de la tecnología. "Los beneficios de la IA en campos como la atención sanitaria, la educación y la productividad económica son enormes y podrían elevar significativamente los niveles de vida mundiales", afirmó.
Planteando desafíos a la IA de código abierto
Ala Shaabana, cofundador de la Opentensor Foundation, una organización comprometida con el desarrollo de tecnologías de IA que sean abiertas y accesibles al público, dijo sobre los líderes de las Big Tech AI: “Definitivamente están usando tácticas de miedo. Hay muchas más cosas por las que deberíamos preocuparnos más que el riesgo de que la humanidad se extinga. Eso es un poco exagerado. Todo son relaciones públicas”.
"La creación de inteligencia artificial general (IA con conciencia que puede pensar por sí misma y actuar por sí misma sin intervención humana) es el santo grial de la IA", dijo a TechNewsWorld. "¿Pero cómo podemos desarrollar algo que sea consciente si nosotros mismos no entendemos la conciencia?"
La regulación gubernamental podría representar una amenaza para la comunidad de IA de código abierto, señaló Rob Enderle, presidente y analista principal de Enderle Group, una firma de servicios de asesoría en Bend, Oregon.
"Depende de cómo estén redactadas las leyes y regulaciones", dijo a TechNewsWorld. "Pero los gobiernos a menudo hacen más daño que bien, particularmente en áreas que aún no se comprenden bien".
Prabhakar añadió que unas normas gubernamentales demasiado amplias sobre la IA podrían plantear desafíos para la comunidad de código abierto.
"Dichas regulaciones, especialmente si responsabilizan a los desarrolladores de sistemas de inteligencia artificial de código abierto por cómo se utilizan sus herramientas, podrían desanimar a los contribuyentes", dijo. "Podrían temer problemas legales si se hacen un mal uso de sus herramientas de inteligencia artificial de código abierto, lo que los hace menos propensos a compartir su trabajo libremente".
Asfixiando el código abierto con burocracia
Prabhakar recomendó que el gobierno adopte un enfoque personalizado para la supervisión de la IA. “Reconocer que los proyectos de código abierto tienen incentivos diferentes a los comerciales y crear excepciones en las regulaciones para los modelos de código abierto podría ser una solución”, explicó.
"Al ajustar las reglas para que se ajusten mejor al espíritu de código abierto, podemos aspirar a un escenario donde la regulación y la innovación de código abierto coexistan y prosperen", razonó.
Shaabana sostuvo que la Orden Ejecutiva sobre Inteligencia Artificial publicada por la Casa Blanca el lunes contenía disposiciones que favorecían a las grandes empresas tecnológicas de inteligencia artificial sobre los desarrolladores de código abierto.
“La Orden Ejecutiva es extremadamente manual”, explicó. "Se requieren muchos recursos para cumplir si eres una pequeña empresa o un pequeño investigador".
"Un requisito es que cualquier empresa que desarrolle modelos de inteligencia artificial tendrá que comenzar a informar sobre el entrenamiento de ese modelo y obtener la aprobación del gobierno de Estados Unidos", dijo. “A menos que seas un gran investigador o un Meta, OpenAI o Google, no podrás superar esa burocracia. Esas empresas tendrán sus propias divisiones para superar eso”.
La comunidad de código abierto no será la única comunidad que podría verse perjudicada por la regulación gubernamental de la IA, continuó.
"La comunidad científica también se verá afectada", afirmó. “En los últimos dos años, investigadores en cambio climático, biología, astronomía y lingüística han utilizado IA de código abierto para realizar sus investigaciones. Si esos modelos de código abierto no estuvieran disponibles, esa investigación no estaría disponible ahora”.
Costos ocultos de la regulación de la IA
Si bien las regulaciones pueden perjudicar a los pequeños actores de la IA de código abierto, pueden beneficiar al actual establishment de la IA. "La estricta regulación de la IA crea importantes barreras de entrada, particularmente para las empresas emergentes que carecen del capital o la experiencia necesarios para navegar los numerosos mandatos regulatorios", explicó Prabhakar.
"Los costos iniciales asociados con el cumplimiento de regulaciones estrictas podrían potencialmente sofocar el surgimiento de nuevas empresas innovadoras, consolidando así el mercado en torno a actores bien establecidos", continuó.
“Las grandes empresas tecnológicas están mejor preparadas para cumplir y absorber los costos asociados con un marco regulatorio riguroso”, afirmó. “A diferencia de sus contrapartes PYME, tienen el capital, la experiencia y la infraestructura necesarios para navegar el laberinto regulatorio. Esta disparidad crea un foso alrededor de los actores establecidos, protegiéndolos potencialmente de la peor parte de la competencia”.
La ausencia de un foso para evitar la competencia del código abierto fue el tema de un memorando atribuido a un investigador de Google que causó un gran revuelo cuando se filtró en línea en mayo. En él, el investigador argumenta que “una tercera facción ha estado comiendo silenciosamente nuestro almuerzo”: modelos de IA de código abierto que son “más rápidos, más personalizables, más privados y más capaces libra por libra” que los de Google y OpenAI. .
Shaabana elogió la Orden Ejecutiva del presidente Biden por apuntar a integrar la IA en el gobierno, pero agregó: "Muchas de ellas parecen como si las grandes tecnológicas estuvieran tratando de cerrar la puerta detrás de ellas".
"Han creado esta sofisticada IA y realmente no quieren ninguna competencia o simplemente competencia entre un puñado de empresas que pueden superar el proceso gubernamental", continuó.
"Irónicamente", dijo, "muchos de los temores del gobierno sobre el sesgo, la transparencia y la anticompetitividad pueden resolverse con IA de código abierto y sin regulación".
“¿Qué va a pasar si dejamos pasar esto y dejamos que estas empresas controlen todo? Seguirán creando su propia IA y seguirán enriqueciéndose con nuestros datos”, predijo.
Si quieres conocer otros artículos parecidos a Experto en IA afirma que las grandes empresas tecnológicas utilizan el miedo a la IA para aumentar las ganancias puedes visitar la categoría Tecnología.
Otras noticias que te pueden interesar