No os perdáis este interesante artículo de Gay Marcus
El mayor riesgo de la IA no son los robots ni la AGI, sino las personas y las corporaciones. Gary Marcus lo explica bien: sin cooperación, la IA responsable no va a pasar.
Gary Marcus lo dice sin rodeos: el peligro de la IA no viene de la AGI ni de los robots, sino de las personas y las corporaciones que la desarrollan sin coordinación real. El cambio de misión de OpenAI y el fracaso de la moratoria son síntomas de lo mismo. Spoiler del artículo: la cooperación necesaria no va a llegar sola.
No os perdáis este interesante artículo de Gay Marcus. Su preocupación por los riesgos de la IA no viene de la AGI o los robots, si no de las personas y las corporaciones. Cuatro puntos:
💰 Cambio en OpenAI: La compañía pasa de una misión humanitaria a enfocarse en generar ganancias, con Microsoft buscando ganar mercado. 🔥 Controversia sobre la moratoria: Se propuso una pausa en el desarrollo de IA, pero en lugar de unirse, la comunidad de IA se dividió. 🤝 Falta de acción coordinada: Se necesitan esfuerzos conjuntos para hacer que los sistemas de IA sean más seguros, precisos, interpretables y confiables. 💡 Llamada a la cooperación: Es hora de dejar de pelear y trabajar juntos para desarrollar una IA más responsable y en línea con nuestros valores humanos. Spoiler: no va a pasar.
https://lnkd.in/eygJRtdb