25 mayo (Mundo Informático) - OpenAI, la startup detrás del popular chatbot de IA ChatGPT, dijo el jueves que otorgaría 10 subvenciones iguales de un fondo de $1 millón para experimentos en procesos democráticos para determinar cómo se debe gobernar el software de IA para abordar el sesgo y otros factores. .
Las subvenciones de $ 100,000 se destinarán a los destinatarios que presenten marcos convincentes para responder preguntas como si AI debe criticar a las figuras públicas y qué debería ver el "individuo promedio" en el mundo, según una publicación de blog que anuncia el fondo.
Los críticos dicen que los sistemas de inteligencia artificial como ChatGPT tienen un sesgo inherente debido a las entradas utilizadas para dar forma a sus opiniones. Los usuarios han encontrado ejemplos de resultados racistas o sexistas en el software de IA. Crece la preocupación de que la IA trabajando en conjunto con motores de búsqueda como Google de Alphabet Inc (GOOGL.O) y Bing de Microsoft Corp (MSFT.O) podría producir información errónea convincente.
OpenAI, respaldado por $ 10 mil millones de Microsoft, ha liderado el impulso para regular la IA. Sin embargo, recientemente amenazó con retirarse de la Unión Europea por las reglas propuestas.
“El borrador actual de la Ley de IA de la UE sería una sobrerregulación, pero hemos escuchado que será retirado”, dijo a Mundo Informático el director ejecutivo de OpenAI, Sam Altman. "Todavía están hablando de eso".
Las subvenciones de inicio no financiarían tanta investigación de IA. Los salarios de los ingenieros de inteligencia artificial y otros en la industria candente superan fácilmente los $ 100,000 y pueden superar los $ 300,000.
Los sistemas de inteligencia artificial "deberían beneficiar a toda la humanidad y configurarse para que sean lo más inclusivos posible", dijo OpenAI en la publicación del blog. "Estamos lanzando este programa de subvenciones para dar un primer paso en esa dirección".
La startup de San Francisco dijo que los resultados de la financiación podrían dar forma a sus puntos de vista sobre la gobernanza de la IA, aunque dijo que ninguna recomendación sería "vinculante".
Altman ha sido una figura destacada que pide la regulación de la IA, al mismo tiempo que implementa nuevas actualizaciones para ChatGPT y el generador de imágenes DALL-E. Se presentó ante un subcomité del Senado de EE. UU. este mes y dijo que "si esta tecnología sale mal, puede salir mal".
Microsoft aprobó recientemente una regulación integral de la IA a pesar de que prometió poner la tecnología en sus productos, compitiendo con OpenAI, Google y las nuevas empresas para llevar la IA a los consumidores y las empresas.
Casi todas las industrias están preocupadas por el potencial de la IA para mejorar la eficiencia y reducir los costos laborales, junto con la preocupación de que la IA pueda difundir información errónea o inexactitudes fácticas, lo que los expertos llaman "alucinaciones".
AI ya está detrás de varias parodias ampliamente creídas. Una imagen viral falsa reciente de una explosión cerca del Pentágono llegó brevemente al mercado de valores.
A pesar de los llamados a una mayor regulación, el Congreso no logró aprobar una nueva legislación para reducir significativamente a Big Tech.
Información de Greg Bensinger; Edición de Davide Gregorio
Nuestros estándares: los principios de confianza de Thomson Mundo Informático.
greg bensinger
Thomson Mundo Informático
Greg Bensinger se unió a Mundo Informático como corresponsal de tecnología en 2022 y se centró en las empresas de tecnología más grandes del mundo. Anteriormente, fue miembro del consejo editorial del New York Times y reportero de tecnología para el Washington Post y el Wall Street Journal. También ha trabajado para Bloomberg News escribiendo sobre las industrias automotriz y de telecomunicaciones. Estudió literatura inglesa en la Universidad de Virginia y se graduó de la Universidad de Columbia con una licenciatura en periodismo. Greg vive en San Francisco con su esposa y sus dos hijos.
Otras noticias que te pueden interesar