SHIFT News
This Week in SHIFT
Ep.35 - Especial AI: Dilemas que llevan a un llamado al freno y medidas de Instagram para detener la desinformación
0:00
-10:20

Ep.35 - Especial AI: Dilemas que llevan a un llamado al freno y medidas de Instagram para detener la desinformación

¡Bienvenidos a un nuevo This Week in SHIFT! Arrancamos esta nueva edición del podcast con un cuestionamiento: ¿es momento de frenar el avance de la inteligencia artificial? También hablaremos sobre las medidas que Instagram está tomando para detener la desinformación por imágenes creadas por IA. En menos de 15 minutos te pondré al día en lo último del mundo de la innovación y tecnología que toda empresa debería de saber. ¡Ahí vamos!

La carrera de la IA: ¿Es momento de frenar su avance?

Recientemente, Elon Musk y otros líderes y expertos en inteligencia artificial (IA) han pedido detener el avance de IA. Al investigar más sobre el tema, nos encontramos con el artículo de Luis Huayaney, especialista en Open Innovation de Mibanco y miembro del Squad de Innovación Abierta de SHIFT. En su artículo nos cuenta sobre los argumentos a favor y en contra sobre poner una pausa el desarrollo de la inteligencia artificial. Aquí les compartimos parte del artículo:

No cabe duda que la inteligencia artificial ha experimentado avances significativos. Durante los años 2022 y 2023, el uso masivo de IA ha impulsado a las empresas a integrar estas tecnologías en sus productos, generando una carrera comercial motivada por el apetito de ganancias económicas y el posicionamiento en el mercado. Esta tendencia ha llevado a algunos expertos y líderes de la industria a cuestionar si se está perdiendo de vista el desarrollo responsable de IA en medio de la competencia empresarial.

Actualmente, la IA se encuentra en una etapa de rápido desarrollo en la que los modelos de lenguaje de última generación o LLM, como GPT-3 y GPT-4, han demostrado capacidades impresionantes. Sin embargo, estos modelos aún están lejos de alcanzar la capacidad de una Inteligencia Artificial General o AGI. Siendo los LLM quienes constituyen riesgos potenciales bastante menores a una AGI.

Recientemente, líderes y expertos en IA como Elon Musk, Steve Wozniak, Yuval Noah Harari y otros firmaron una carta abierta instando a una pausa de 6 meses en el entrenamiento a través de “experimentos gigantes” de sistemas de IA altamente avanzados. Argumentan que el rápido avance en IA plantea "riesgos profundos para la sociedad y la humanidad".

Algunos de los argumentos a favor de una pausa en el desarrollo de la IA:

  • Evitar el desarrollo irresponsable de la IA

  • Abordar los sesgos y la discriminación

  • Protección de la privacidad

  • Seguridad y transparencia

  • Reflexión ética

Por otro lado, algunos de los argumentos en contra de una pausa en el desarrollo de la IA:

  • Pérdida de ventaja competitiva empresarial

  • Desaceleración de la innovación global

  • Retraso en la llegada de nuevas soluciones impulsadas por la IA

  • Barreras a la adopción responsable

  • Desarrollo inevitable

La adopción masiva de la IA y la competencia empresarial ha generado un debate sobre la necesidad de frenar temporalmente el despliegue masivo de modelos de IA más poderosos que podrían generar nuevos riesgos a los modelos actuales, la verdad es que el estado actual de IA que estamos usando tiene nuevos riesgos pero aún no son incontrolables, sin embargo debido a “The Law of Accelerating Returns” o el ritmo exponencial del progreso, podemos esperar IA con nuevas capacidades más pronto de lo que pensamos.

Si bien hay argumentos válidos tanto a favor como en contra de esta pausa, es esencial abordar el desarrollo de la IA de manera responsable y equilibrada, finalmente construir las medidas necesarias es parte del progreso y no opuesto a el.

Por algo Yuval Noah Harari, el filósofo y profesor de historia de la Universidad Hebrea de Jerusalén que se ha convertido en una fuente de admiración por las élites de Silicon Valley, menciona que "La IA podría ser la peor o la mejor cosa para la humanidad."

¡Veamos que pasarán las siguiente semanas!

Disponible en BREACH.

IA Generativa y el dilema de nuestro futuro

Las nuevas aplicaciones basadas en lenguaje de última generación, Large Language Models en inglés (o simplemente LLM) como ChatGPT de Open AI, Bard de Google, o GitHub de Copilot, nos permiten mantener un diálogo inteligente con ellas y ver cómo generan textos e imágenes de manera casi humana. Esta evolución trae consigo nuevos cuestionamientos, incluso a nivel filosófico. Por eso, el Co-founder & CEO de Globant, Martin Migoya nos comparte un poco de sus pensamientos sobre la IA dentro de nuestro mundo.

Una de las discusiones más candentes del día de hoy es: ¿podrá la IA reemplazar trabajos, y sobre todo, como novedad, los trabajos basados en el conocimiento? Lo que está sucediendo ahora podría asemejarse a otros cambios tecnológicos que se vivieron en el pasado: la revolución industrial, donde la máquina reemplazó la fuerza, o lo que sucedió con la sustitución de las reglas de cálculo por las calculadoras. En ambos casos hubo grandes evoluciones tecnológicas que no impactaron en la importancia del trabajo de los ingenieros sino que mejoraron sus capacidades para llevar a cabo sus tareas.

La IA entonces, acelerará el trabajo de programadores, escritores y otros trabajos creativos pero todavía no podrá reemplazarlos. Y no por falta de capacidad, sino porque estos sistemas carecen de información sobre el contexto que nosotros, como humanos, tenemos. No tienen manera de saber lo que está sucediendo en nuestra comunidad, trabajo o sociedad, y entonces es imposible que generen el texto o el código perfecto que estábamos buscando para ese preciso momento.

Otra razón, es la gran capacidad que tienen éstos  modelos para crear diálogos y textos, pero no tienen la capacidad de ejecutar. Estos modelos pueden inventar datos o crear información incorrecta ya que son redes neuronales que tienen como objetivo hacer un texto con sentido semántico y coherente, pero no necesariamente verdadero. La falta de un responsable último de la información es sin dudas un enorme tema a solucionar, y es en sí mismo una diferencia muy grande con los humanos. Que la gente confíe en estas respuestas será un gran tema a resolver, ya que no tan fácilmente se puede conocer el origen de la información que dio lugar a esa respuesta.

En todo este mundo en expansión, los humanos siempre seguiremos siendo el centro de la tecnología, con nuestras habilidades y defectos. Un día ChatGPT quedará obsoleto y será reemplazado por un modelo mucho más grande e interconectado. Y ese día tendremos que volver a revisar lo que pensamos, lo que sabemos.

Noticia disponible en Globant.

Instagram avisará cuando las imágenes sean creadas con IA

La últimas semanas fuimos testigos como la Inteligencia Artificial (IA) está provocando olas de desinformación en las ya vulnerables plataformas digitales. Primero lo vimos con las imágenes de un arresto falso al expresidente de EE.UU., Donald Trump. Luego fue aún más evidente con el caso del Papa Francisco usando prendas de lujo.

Esta tecnología está cruzando algunos límites que las redes sociales, tales como Instagram, no piensan tolerar. Por eso, esta red social ha decidido poner límites a la IA con la implementación de verificadores. Así los usuarios podrán saber cuándo se trata de Fake News, un acontecimiento o noticia real o si sólo se trata de una imagen potenciada con esta tecnología.

Meta, la empresa matriz dueña de Instagram, ha generado recursos en Instagram que permitirán a las personas identificar cuando están viendo contenido que fue creado por inteligencia artificial, avisando que esa foto está alterada. Para que los usuarios puedan verificar que una publicación está alterada con IA, desde Instagram se abrirá una ventana emergente donde indicarán el nombre de la organización de verificación de datos que ha valorado que esa imagen no es real; además de un texto como “la foto o imagen se editó de una forma que podría engañar a las personas”.

Entonces, nos cuestionamos: ¿Qué sucede si se promueve la desinformación en Instagram? La respuesta es sencilla, los usuarios que compartan información falsa, como por ejemplo imágenes retocadas con IA, recibirán una notificación de que han incumplido las Normas Comunitarias. Aunque no ocurre nada si se publican imágenes con IA, la situación se complica cuando se hace de forma recurrente.

Si una cuenta promueve la desinformación de manera reiterada, se está exponiendo a que se le apliquen sanciones por parte de Instagram. Por ejemplo, se limitará la visibilidad de las publicaciones de estas cuentas, se inhabilitarán menciones o etiquetas y los seguidores o personas que empiecen a seguir a estas cuentas recibirán un mensaje de advertencia sobre la difusión de información falsa y, por último, incluso se podría llegar a desactivar la cuenta.

Disponible en Mercado Negro.

Anuncios

Bueno, hasta aquí llegó un nuevo episodio, gracias por acompañarnos. Si es la primera vez que escuchas este podcast y te gustó, te invito a que te suscribas. En caso seas ya seas seguidor de nuestro podcast, comparte el link del episodio entre tus contactos o diles que pueden encontrarnos en Spotify como This Week in SHIFT. Además pueden conocer más de nosotros en nuestra web shift.pe, y de nuestros eventos y novedades a través de nuestro LinkedIn, todas las semanas compartimos contenido sobre innovación que estamos seguros será de mucha utilidad para tu organización.

¿Quieres saber cómo ser socio de SHIFT? Escríbenos al mail hello@shift.pe

0 Comments