NEKTIU

De los sesgos a la manipulación, la cuestión ética es ineludible en el desarrollo de la inteligencia artificial

De los sesgos a la manipulación, la cuestión ética es ineludible en el desarrollo de la inteligencia artificial


Pese a sus evidentes beneficios, la IA plantea profundos desafios de cara a construir sistemas justos y responsables.

Empresas e instituciones confían en la combinación de regulación y gobernanza corporativa para velar por la ética 

Redacción 21/06/2021 

En buscadores de internet, en asistentes virtuales, en electrodomésticos, en redes sociales, en la calle y centros comerciales… La inteligencia artificial está presente en nuestras actividades cotidianas desde hace años y su desarrollo, aupada en el crecimiento imparable del ecosistema digital a raíz de la pandemia, solo está llamado a continuar escalando. Esta tecnología cuenta con un gran potencial de transformación desde el punto de vista tecnológico, económico y social, pero plantea profundos desafíos a la hora de construir modelos y sistemas justos y responsables.

Las diferentes industrias se enfrentan a grandes retos en los próximos años, como la necesidad de incrementar la competitividad a través de la automatización y optimización de los procesos, o mejorar la sostenibilidad mediante la eficiencia energética, el desarrollo de nuevos materiales con menor impacto ambiental o la apuesta por la economía circular. Y para lograr todo ello, resultará imprescindible escalar el uso de los datos y la inteligencia artificial en toda la cadena de valor. Es por eso que el gasto mundial en esta tecnología se duplicará en los próximos cuatro años aumentando de 50.100 millones de dólares en 2020 a más de 110.000 millones en 2024, según estiman desde IDC.

Y es que en la actual data economy, la capacidad de la inteligencia artificial para gestionar la información será esencial en el devenir de las compañías. “Nuestro cerebro es finito, tiene un límite, pero la máquina no descansa”, nos explica Idoia Salazar, Presidenta de OdiseIA, el Observatorio del Impacto Social y Ético de la Inteligencia Artificial. “La IA es un software con capacidad para analizar datos, extraer conclusiones, tomar decisiones de forma autónoma y aprender. Es una tecnología con enormes posibilidades para ayudarnos a tener una vida mejor si se usa para el bien”.

¿Una inteligencia artificial confiable? 

La aplicación de la IA es cada vez más habitual en todo tipo de actividades. Solo en el último año se ha podido conocer, por ejemplo, cómo Intel ha desarrollado una mochila con inteligencia artificial, cámara espacial y auricular bluetooth integrados para ayudar a que las personas con discapacidad visual puedan caminar con mayor seguridad en la vía pública. Mientras que Sony ha creado el sensor fotográfico IMX500 que aplica la IA con la intención de reducir los atascos y la contaminación de los aparcamientos, mitigar los accidentes de los peatones y reducir las aglomeraciones en el transporte público en la ciudad de Roma. Y Samsung ha puesto en marcha Tallk, una aplicación que permite a los pacientes de ELA comunicarse gracias a los algoritmos predictivos y a un sistema de eye tracking. 

No obstante, algunas de las soluciones creadas a base de inteligencia artificial también han sido objeto de polémica por adentrarse en terrenos que una sección de usuarios y profesionales consideran moral y éticamente cuestionables. Tal es el caso de la aplicación Deep Nostalgia, de MyHeritage, que está siendo usada, principalmente, para “devolver a la vida” a antepasados o personajes históricos. Esta herramienta se apoya en la tecnología deepfake, la misma empleada por Channel 4en la creación de un vídeo -duramente criticado- que alteraba digital y artificialmente la imagen de la reina Isabel II para alertar sobre el riesgo de las fake news; y la misma que Cruzcampo ha utilizado para “revivir” a Lola Flores para su campaña “Con mucho acento”.

Por su parte, otros sistemas de inteligencia artificial puestos en marcha en los últimos tiempos han demostrado los efectos negativos de esta tecnología, y han llegado a comprometer o vulnerar cuestiones como la privacidad, la protección de datos o, incluso, los derechos humanos. Sonado fue el caso, en 2015, del algoritmo detrás de Google Photos que confundía personas afroamericanas con simios; o el de Rekognition, el sistema de Amazon, que en 2018 identificó falsamente a 28 miembros del Congreso como personas que habían sido arrestadas por delitos. En nuestro país, el año pasado, Mercadona implantó un sistema de reconocimiento facial en 40 de sus supermercados con el objetivo de detectar personas con una “sentencia firme de orden de alejamiento del establecimiento”, una iniciativa que según la Audiencia Provincial de Barcelona vulneraba la privacidad de los usuarios.

Algunos de estos casos no se adecuarían, por tanto, a lo establecido en la “Guía ética para una Inteligencia Artificial confiable”, elaborada por el grupo de expertos de la Comisión Europea en 2019. Según el organismo comunitario, una IA confiable es aquella que cumple tres requisitos fundamentales: es legal, es decir, respeta todas las leyes y regulaciones aplicables; es ética, esto es, respeta los principios y valores éticos; y es robusta, tanto desde una perspectiva técnica del dato como a la hora de tener en cuenta el contexto social.

Es más, Carlos Guardiola, Chief Innovation Officer en Sngular, considera que, “aunque resulta difícil generalizar en este terreno, la mayoría de inteligencias artificiales no son confiables porque no cumplen las tres condiciones de manera simultánea”. Tal y como nos explica, “un porcentaje muy alto son robustas porque la tecnología ya es fuerte y desarrollada, como en el caso de Alexa o Siri, que cada vez entienden mejor, pero en los aspectos legales y éticos aún hay mucho que mejorar. Todavía hay que ver si las soluciones se están construyendo con planteamientos éticos desde la base, o si se les están aplicando a posteriori”.

Esto explicaría que, según una encuesta realizada el año pasado por la OCU a nivel europeo, un 67% de los ciudadanos consideren que la IA servirá a las empresas para manipular a los consumidores, o que un 65% piensen que puede provocar mayores abusos en el uso de datos privados y personales. Al igual que un 61% crean que puede servir a los gobiernos para controlar a la población, y que un 68% estimen que el desarrollo de los sistemas de IA supondrá una pérdida de puestos de trabajo en diversos sectores.

Pese a las connotaciones negativas asociadas a la inteligencia artificial, las empresas -al menos las grandes y tecnológicas- parecen concienciadas de la necesidad de implementar medidas que promuevan la confianza. “Nuestra misión es crear tecnologías para el progreso de la sociedad, es algo que forma parte de nuestro ADN. Trabajamos con gobiernos, clientes, universidades e investigadores para que la IA se desarrolle de forma beneficiosa para todos”, nos comenta Alfonso González, Director de Asuntos Gubernamentales y Regulatorios de IBM España. “Debe haber un sistema de mejores prácticas que ayuden a la gestión ética y segura de la IA y que estén alineados no solo con la normativa, sino con los valores existentes en la sociedad”.

En esta línea, la preocupación por la transparencia de las aplicaciones parece haber cobrado peso. “Nuestros principios están alineados con el respeto a la autonomía humana, la prevención del daño, la equidad y la explicabilidad que rigen los fundamentos de una IA fiable”, nos asegura Alberto Pinedo, National Technology Officer de Microsoft España. “Promovemos el uso ético de la IA a través de una metodología compuesta por unos principios, prácticas y herramientas, así como por un consejo asesor que discrimina aquellos usos que no son considerados como confiables, éticos o robustos, basándose en las directrices europeas”.

Los desafios éticos de la inteligencia artificial. 

No obstante, compañías e instituciones entienden que para aportar beneficios y resultar clave para la construcción de un mundo mejor, la inteligencia artificial debe resolver una serie de retos. Los principales, según Alberto de Torres, CEO de Nektiu y Profesor y Director Académico de ESIC, son tres. “Lo más importante es la fiabilidad del dato, conseguir información de calidad, adecuada y suficiente para aportar valor. El segundo es el de la confianza en las herramientas, que pasa por generar una cultura del conocimiento. Y en tercer lugar el talento, son necesarios perfiles diversos que sepan trabajar con los datos para obtener el máximo potencial de estas soluciones a todos los niveles”.

Sesgos y prejuicios

Más allá de las cuestiones técnicas que atañen a la inteligencia artificial como tecnología en sí misma, la industria es consciente de la necesidad de abordar los aspectos sociales, culturales y morales de sus aplicaciones e implicaciones. Así, los expertos coinciden en que el del sesgo o cómo evitar que se construyan algoritmos o sistemas que hereden las visiones enjuiciadas de personas, empresas y sociedades, se convierte en uno de los principales desafíos. Es más, según un estudio de Capgemini, el 65% de los directivos dice ser consciente del problema de las inclinaciones discriminatorias  de los sistemas de IA.

La aparición de prejuicios o conductas discriminatorias es una problemática habitual, por ejemplo, de las inteligencias artificiales basadas en texto, como GPT-3, el modelo de lenguaje de OpenAI. Estos sirven para predecir construcciones textuales, pero muchos tienden a amplificar estereotipos negativos relacionados con la religión, la orientación sexual o la raza. Concretamente, se ha descubierto recientemente que GPT-3 asocia términos violentos a musulmanes en 9 de cada 10 casos, frente a los 2 casos de los cristianos o solo 1 para los judíos.

Para luchar contra esto, los expertos están empleando distintas técnicas, como inyectar texto positivo sobre aquello sobre lo que la IA genera sesgos. En este caso, incorporar términos positivos sobre los musulmanes en un modelo de lenguaje extenso redujo el número de menciones de violencia sobre los practicantes de esta fe en casi un 40%. Otra estrategia es alimentar a la máquina con discursos de odio, blasfemias o insultos, para que posteriormente un equipo de seres humanos etiquete las expresiones como inseguras y ayudar al sistema a identificar y eliminar texto tóxico.

Asimismo, las empresas desarrolladoras de algoritmos y soluciones de IA también están haciendo frente a este desafío desde la perspectiva de la capacitación. Trabajamos con las administraciones para fomentar la educación en IA en toda la población, y para que la ética se incluya en los programas formativos de colegios, institutos y universidades”, señala Alfonso González (IBM España). “Hacemos especial énfasis en determinados colectivos con menos acceso a la educación para que a medio y largo plazo haya una mayor representación entre lo desarrolladores de algoritmos”.

Manipulación del comportamiento

Asimismo, el de la manipulación de comportamiento es otro de los grandes retos a los que se enfrenta la inteligencia artificial desde el punto de vista de la ética. Con el auge de tecnologías como el deepfake, capaz de reproducir digitalmente los rasgos, movimientos y expresiones de cualquier persona, los esfuerzos del sector se vuelcan en establecer medidas y desarrollar herramientas para evitar que los algoritmos desencadenen comportamientos o nuevos hábitos en los consumidores, o incluso manipulen sus certezas o creencias.

En un contexto de creciente desinformación y preocupación hacia las fake news, determinar si un contenido audiovisual es real o manipulado resulta crucial para evitar daños o situaciones comprometidas, como por ejemplo, la alteración de unos resultados electorales. En 2018,  el director de cine Jordan Peele y el medio BuzzFeed se unieron para concienciar sobre ello en un vídeo que reproducía digitalmente a Barack Obama. “Estamos entrando en una era en la que nuestros enemigos pueden hacer que cualquiera diga cualquier cosa en cualquier momento”, comentaba la imagen alterada del ex Presidente de Estados Unidos.

Con el avance de la tecnología, la democratización del acceso a internet y la compartición de herramientas de código abierto, hoy en día es cada vez más sencillo manipular imágenes y moldear discursos tomando como referencia la fisionomía de figuras relevantes. Por ello, crecen los proyectos y sistemas enfocados a detectar manipulaciones, como el desarrollado por Sensity, que permite identificar, buscar y monitorizar amenazas visuales de cientos de fuentes, tanto de la web abierta como de la dark web, gracias al deep learning.

Para Alberto Pinedo (Microsoft España) los principales desafíos a este respecto están en la naturaleza sociotécnica de la IA, es decir, produce efectos sociales y tiene un componente técnico difícil de explicar. A medida que técnicas como el deepfake se hacen más habituales, es más común observar la consolidación de una figura responsable del aspecto ético de la tecnología. “Hay que alcanzar un ethos responsable como comunidad que desarrolla la IA, para lo que conviene adoptar una aproximación basada en los valores europeos, con autoevaluación ética y una regulación orientada a riesgos. En Microsoft, ademas de dos comités de seguimiento, contamos con un “Responsible AI champ” que se encarga de garantizar el uso ético de nuestra tecnología”.

Autonomía, seguridad y responsabilidad

En la lista de retos éticos que la inteligencia artificial debe acometer, también destaca el de la autonomía, es decir, todo aquello vinculado a las decisiones que los algoritmos toman por sí mismos y la asunción de responsabilidad en las consecuencias de las mismas. Uno de los debates más acalorados sobre la materia se produjo a raíz del fallecimiento de Elaine Herzberg en la ciudad de Temple (Arizona) en marzo de 2018 a consecuencia de un atropello por parte de un vehículo autónomo de Uber, considerada la primera víctima causada por un coche sin conductor.

Tras una investigación llevada a cabo por la National Transportation Safety Board, se determinó que entre las causas del fatal accidente se encontraba el mal comportamiento cívico de la víctima, que cruzó la carretera de manera incorrecta, o la falta de atención por parte de la conductora, que se encontraba mirando un vídeo en su teléfono móvil. No obstante, también se señaló las insuficientes políticas de regulación de los vehículos autónomos del estado de Arizona, así como los inadecuados procedimientos de evaluación de riesgos de seguridad o la ineficaz supervisión por parte de Uber de los comportamientos de sus vehículos.

El caso resultó ser un revulsivo en la carrera del desarrollo del coche autónomo, obligando a compañías como Uber, Tesla. Toyota o Volkswagen a revisar sus sistemas y políticas, pero también empujando a las instituciones a establecer marcos regulatorios más estrictos. En este sentido, en junio del año pasado, 50 países firmaron en la ONU un reglamento para acotar el uso y funcionamiento de este tipo de máquinas. Así, se establecía la limitación de velocidad en 60 km/h, el permiso de circulación solo en vías en las que esté prohibida la circulación de peatones y ciclistas, y la necesidad de que dichas vías cuenten con una barrera física que separe los dos sentidos de circulación.

Privacidad, transparencia y confianza

En 2020 el 62% de los consumidores a nivel global creían que las empresas son completamente transparentes en el uso de sus datos personales, una cifra que ha experimentado una caída notable en comparación con el 76% de 2019, según un informe realizado por Capgemini. Lo cierto es que, según apunta el estudio, en 2019 el 73% de las compañías del mundo informaba a sus usuarios sobre cómo podían afectarles las decisiones de sus sistemas de inteligencia artificial, un dato que actualmente se sitúa en el 59%. Se trata de datos que reflejan la desconfianza de la población ante la opacidad y falta de transparencia que en múltiples ocasiones envuelve a los sistemas de inteligencia artificial con los que a menudo interactúan los usuarios.

En este sentido, la propuesta de marco regulatorio de la Comisión Europa dado a conocer en abril de este año busca establecer una serie de estándares respecto a la transparencia del uso de los datos en sistemas de inteligencia artificial, del mismo modo que ya hizo anteriormente el Reglamento General de Protección de Datos (GDPR). De esta forma, en el caso de los sistemas de alto riesgo, estarán sujetos a una serie de obligaciones estrictas, entre las que destaca la responsabilidad de aportar un registro de la actividad para garantizar la trazabilidad de los resultados, aportar documentación detallada sobre el sistema y su finalidad o proporcionar información clara y adecuada al usuario.

Más allá de la regulación, las principales compañías tecnológicas que trabajan con IA son conscientes de la necesidad de impulsar la autorregulación y crear sistemas de gobernanza como parte de su compromiso ciudadano. Entre otras medidas, Google tiene públicos y accesibles sus principios respecto al uso de la IA, los resultados de sus progresos y guías prácticas para una inteligencia artificial responsable. Por su parte, Microsoft también cuenta con órganos internos como el Comité Aether, la Oficina de IA Responsable (ORA) y la Estrategia de IA Responsable en Ingeniería (RAISE). Junto a medidas similares, IBM ha puesto en marcha AI OpenScale, una plataforma abierta y escalable que permite a las empresas gestionar la IA de forma transparente durante todo el ciclo de vida de la solución, independientemente de dónde se hayan creado sus aplicaciones.

Conocimiento y formación

El impacto de la inteligencia artificial en el futuro del trabajo también genera incertidumbres. Según una encuesta de OCU, un 68% de los ciudadanos europeos creen que el desarrollo de los sistemas de IA supondrá una pérdida de puestos de trabajo en diversos sectores. Por ello, los expertos señalan que mejorar el conocimiento respecto a la tecnología, reducir la concepción de los algoritmos como cajas negras y abordar la automatización del trabajo, desde la perspectiva de la mejora de las condiciones de los trabajadores y la complementariedad de tareas y funciones, es otro de los grandes desafíos de la industria.

Además de elevar el nivel de conocimiento general de la población respecto a la inteligencia artificial, los expertos consideran urgente formar también a los miembros de la alta dirección de las compañías con el objetivo de mejorar la confianza y la comunicación de los beneficios de la tecnología. Y es que tal y como apunta el Barómetro sobre Ética e Inteligencia Artificial 2020, en el que han participado más de 150 Consejeros y CEOs del Ibex 35, el 85% de los encuestados declara tener conocimientos básicos o medios en IA, y solo un 15% declara tener conocimientos avanzados.

Una mayor comprensión del funcionamiento de la inteligencia artificial promoverá un mejor entendimiento de sus implicaciones morales. Según nos explica Alberto de Torres (Netkiu y ESIC), las formaciones existentes están principalmente enfocadas a los aspectos técnicos, aunque la perspectiva de negocio es cada vez más demandada. Sin embargo, la educación en las cuestiones éticas es un terreno que debe cobrar mayor relevancia en los incipientes cursos, másteres y posgrados relacionados con la materia. “Cuanto más técnica es una formación, menos se habla de ética. Se cree que ese aspecto es algo más vinculado al negocio, pero es importante que el científico también tenga formación ética para crear sistemas no solo acordes a la regulación, sino positivos para la sociedad”.

Regulación y gobernanza para una IA confiable

Conscientes de todos estos desafíos, los distintos agentes del sector se muestran favorables al impulso de la construcción de una inteligencia artificial ética basada en la colaboración público-privada y en la combinación tanto de regulación como de autorregulación. En este sentido, compañías e instituciones aplauden los primeros pasos dados por la Comisión Europea respecto al proyecto de marco regulatorio de la IA. “Nos congratula que se esté adoptando una postura de regulación no de la tecnología, sino de sus usos y que, además, estos se estén abordando de distinta forma en función de su riesgo. Porque no es lo mismo un chatbot que te está ayudando a elegir un producto en una tienda, que una aplicación que está asistiendo a un doctor a tomar una decisión médica”, sostiene Alfonso González (IBM España).

Como ciudadanos y, por tanto, receptores de la tecnología, los agentes de la industria también tienen un interés obvio en que la IA resulte beneficiosa para la vida diaria de todos. “Desde el punto de vista moral y reputacional, nadie quiere ser protagonista de casos negativos, por eso nos interesa a todos contar con planteamientos éticos tanto desde el inicio de los proyectos, como desde postura de compañía”, comenta Carlos Guardiola (Sngular). “Evolucionar en este sentido requiere colaboración y responsabilidad. No puede depender solo de la administración, porque no siempre tiene una respuesta ágil, y tampoco solo de los negocios, porque persiguen unos intereses económicos”.

No obstante, la consecución de una IA ética y confiable dependerá, en última instancia, de que los desarrollos no pierdan la perspectiva de tener al ser humano como sujeto responsable del uso de esta tecnología. “La labor de supervisión es la que más se necesita. Somos las personas las que debemos ejercer el control y la supervisión sobre algoritmos, y no debemos dejarnos llevar por las luces de esta tecnología”, señala Idoia Salazar (OdiseIA). “No podemos poner puertas al campo y tratar de frenar la inteligencia artificial, pero estamos en un momento muy importante para su desarrollo y la decisión última de qué camino tomar la tenemos los seres humanos. Está en nuestras manos”.

Facebook
Twitter
LinkedIn
WhatsApp

Cuando las vacunas no son buenas noticias: el futuro de Zoom (y otras ‘tech’) poscovid

Cuando las vacunas no son buenas noticias: el futuro de Zoom (y otras 'tech') poscovid

Las compañías que se beneficiaron del encierro y la nueva normalidad se enfrentan ahora al reto de retener lo ganado con la inmunidad en el horizonte. ¿Cómo lo lograrán?

Eric Yuan, CEO de Zoom, el día de su salida a bolsa en 2019.

Por Michael Mcloughlin

Ha sido tan omnipresente en la vida de millones de personas durante los meses más duros de la lucha contra el covid-19 que su nombre ha servido para definir uno de los efectos secundarios de esta irrupción acelerada del teletrabajo. El ‘síndrome Zoom ha servido para definir no solo la fatiga de las videollamadas, sino también los problemas que no pocos experimentan a la hora de comunicarse con estos medios. Esta compañía, fundada en 2011 y de la que apenas se había oído hablar por estas latitudes, ha sido una de las grandes triunfadoras de la pandemia.

Su facilidad de uso empujó a que la tomasen como plataforma de cabecera no solo con fines laborales, sino para llenar las horas muertas manteniéndose en contacto con familiares y amigos. A finales de marzo, ya tenía 300 millones de sesiones diarias. Esa estadística daba fe de lo vertiginoso de su crecimiento: a finales de 2019, solo tenía una decena de millones de usuarios.

No dejó de engordar su parroquia en ningún momento, incluso cuando los escándalos en torno a privacidad y seguridad lo perseguían. Con todo ello, consiguió eclipsar a otras soluciones como Cisco Meeting (el fundador de Zoom, Erick Yuan, trabajó en la compañía), Teams de Microsoft, Hangouts… Y, obviamente, esto tuvo un efecto similar al de la hormona del crecimiento en su valor bursátil.

Pasó de estar en poco más de 110 dólares por acción a principios de marzo a rozar los 570 dólares en octubre, tras semanas de incertidumbre surgida tras algunos contratiempos en los ensayos de las farmacéuticas y las vacunas. Sin embargo, esa curva ascendente empezó a doblegarse progresivamente en otoño hasta perder el 40% de lo ganado.

Zoom, la más sensible a las buenas noticias

Evolución del precio por acción de diferentes valores bursátiles de empresas beneficiadas por la pandemia. La plataforma de videoconferencia es la que más % ha perdido.

 


La línea no dibujó una recta. Hubo subidas, pocas, y bajadas, bastantes. Un
efecto ‘sierra’donde los mayores retrocesos coincidían con buenas noticias sobre la vacuna. El 26 de octubre, cuando trascendió que Pfizer negociaba un contrato de distribución con la UE y esperaba tenerla lista en diciembre, cada título perdió casi 90 dólares en apenas cinco jornadas. Mayor fue el tropiezo del 1 de diciembre. En una sola sesión, la acción se dejó 70 dólares, coincidiendo con la publicación de los planes europeos para dar luz verde a las vacunas.

Las turbulencias de Zoom representan una paradoja que afecta a un buen puñado de tecnológicas. Tras beneficiarse e impulsar sus productos, servicios y negocios durante lo más crudo de la pandemia, tienen que enfrentar la esperanza palpable de aparcar la nueva normalidad y retornar a la vieja que dibujan los planes de vacunas. En resumen, muchas de estas empresas afrontan ahora el reto de retener lo ganado.

Esta imagen ha sido la tónica desde hace meses para muchas personas. (Foto: Reuters)

La plataforma de videoconferencias no es la única que ha experimentado esta situación. Un buen ejemplo es Netflixun refugio para muchos durante el confinamiento, o Amazon, del que tanto su división de comercio ‘online’ como AWS se vieron beneficiados. Ambos valores sufrieron pequeños retrocesos cuando los titulares y los informativos de medio mundo recogían buenas nuevas sobre el camino a la inmunidad contra el SARS-CoV-2. Pero nada parecido a lo que ha ocurrido con la empresa fundada por Yuan. “Muchas de esas categorías cuentan con un enorme motor de crecimiento que los hace ganadores, más allá de la ocasión que presenta la pandemia”, opina a este respecto Virginia Pérez, responsable de Renta Variable de Tressis.

“Lo que hemos vivido ha sido coyuntural para algunos. Pero hay que tener en cuenta que la transformación digital no va a parar. Todo va a ir a más. Incluso cuando se recupere la normalidad, hay empresas que han estado a medio gas o casi paradas que van a tener que enfrentar esos procesos de virtualización, por lo que queda todavía recorrido”, añade esta especialista, que pone el ejemplo de los videojuegos, un sector que lleva décadas presentando crecimientos anuales del “10 o el 15%”: “Eso no se va a desplomar”.

Servicios integrados 

“La diferencia de una empresa como Zoom es que está más expuesta a la vuelta a una normalidad que entendemos como tradicional. Y no solo por el tema de las reuniones profesionales, sino también por las de tipo personal, que han sido el gran ‘boom’ que ha empujado su buen funcionamiento”, apunta Diego Jiménez-Albarracín, responsable de Renta Variable de Deutsche Bank España. “Más allá de las videoconferencias, tienen poca cosa más. Que la gente vuelva a reunirse, a una empresa como Microsoft apenas le importa. Tiene Skype o Teams, pero tiene muchísimas otras líneas de negocio que en absoluto se ven afectadas. Y eso puede ser aplicable a otras tantas compañías”.

Zoom está más expuesta porque es a la que más le afecta volver a la vieja normalidad

“El negocio ha cambiado de las videollamadas y no es equiparable a la situación previa. Se ha hecho una inversión tremenda en equipos para prepararse para el teletrabajo”, dice Alberto de Torres, profesor de ESIC y CEO de la consultora Nektiu. “La particularidad de Zoom, a diferencia de otros, es que tiene que encontrar su hueco de mercado. No es el único: las empresas que se dedican solo a una cosa muy específica en esta industria acaban siendo de nicho”, añade, subrayando que la tendencia es que las soluciones se comercialicen en “servicios integrales” como hacen Microsoft o Salesforce, que recientemente adquirió Slack, una herramienta de comunicación para empresas, para fortalecer su oferta en este sentido.

Creo que va a poder competir en el corto plazo. Es intuitivo y ofrece una buena experiencia”, agrega De Torres. “Pero sus rivales están mejorando. Estos gigantes van más lentos, pero se están poniendo las pilas en lo que puede ser una carrera a medio plazo”. 

La especialización: ¿debilidad o no?

¿Es la especialización un problema? La respuesta para Virginia Pérez es “depende”: “Todo gira en torno a las barreras y la especialización que tenga lo que haces”. Pone sobre la mesa el caso de DocuSign, una empresa californiana que permite suscribir acuerdos remotamente con diferentes tecnologías y servicios de firma electrónica, incluyendo un servicio de ‘notaría virtual’.

 Foto: DocuSign.

El año 2020 le ha sentado muy bien a esta cotizada, que ha pasado de 75 dólares por acción en marzo a casi 250 dólares en estos momentos. “Lo que ocurre es que no hay nadie que les pueda hacer la competencia bruta en los próximos años. Los rivales en el mundo de las videollamadas son muchos más y hay multinacionales con mucho músculo que tienen intereses en ello”, analiza esta experta.

Pero la cosa no va solo de peces gordos. RingCentral —una empresa de soluciones corporativas también muy beneficiada estos meses— también ha creado una ‘app’ para competir con Zoom: “La amenaza es mucho más amplia en este caso”.

Pone otros ejemplos, como el de DocuSign, más allá de lo relacionado con el teletrabajo: “Un caso a destacar es Synopsys. Hacen algo tan específico como es el ‘software’ para el diseño electrónico de semiconductores. Y son los reyes. De acuerdo que la pandemia les ha venido bien, pero su actividad sigue, es algo sustancial y si alguien quiere competir, no lo tiene fácil. Ser un especialista no significa estar en una posición de desventaja”. 

El CEO de Zoom, el día de su salida a bolsa. (Reuters)

Diego Jiménez-Albarracín no cree que a Zoom se le pueda considerar “pequeño” aunque solo se dedique a una pequeña parte de la industria de las comunicaciones. “Ha pasado de capitalizar unos 20.000 millones a capitalizar 100.000”, comenta. Este especialista en mercados señala que, aunque su éxito corra el riesgo de ser más efímero que el de otros, se les abre una nueva oportunidad: la de diversificar su negocio.

La plataforma ya ha anunciado sus planes para lanzar dos servicios: uno de calendario y otro de ‘e-mail’. “Esto se puede producir orgánicamente, es decir, creando líneas de negocio y productos. Pero también a golpe de adquisiciones”, explica. Y añade que Zoom se encuentra en una buena posición. El pasado ejercicio ingresó 380 millones. Se espera que 2020 concluya con unos ingresos de 2.000 millones. “Es una compañía sin apenas deuda y que deja márgenes bastante grandes, de hasta el 25%. Esto le deja en una buena situación para afrontar una compra de 10, 15 o 20.000 millones. Ahí no hablamos de una ‘startup’ cualquiera, hablamos de poder adquirir y absorber grandes plataformas”.

Un caso bastante particular

Los expertos consultados por Teknautas coinciden en que la situación de Zoom no es extrapolable a otras compañías que también sufrieron por las noticias positivas de las vacunas. “Es lógico que ahora que ya no pasamos tanto tiempo en casa, el mercado del entretenimiento sufra algo más, pero en mucha menor medida”, comenta Jiménez-Albarracín, quien cree que actividades como el comercio electrónico o las soluciones ‘cloud’ van a ser capaces sobradamente de retener ese crecimiento.

Foto: Reuters.

“La economía de suscripción estaba ahí. Netflix estaba consolidada antes de la pandemia”, comenta Virginia Pérez. ¿Por qué retrocede entonces? “Es normal, a todos estos valores se les exige un gran rendimiento trimestralmente. Si un trimestre flojea, pues los mercados les suelen penalizar”, argumenta, señalando que sus problemas vienen por otro frente en la industria. “La compañía tiene que gastar mucho dinero en producción propia y eso le genera un flujo de caja libre pequeño. Esas son las cosas en las que se tendrá que preocupar”.

Con los grandes gigantes ‘tech’, pasa más de lo mismo. “Es completamente lógico que Google o Facebook, además de Apple o Amazon, hayan salido beneficiadas”, comenta De Torres. “Tenían ya un dominio absoluto del mundo digital y estaban muy bien posicionadas para captar el negocio derivado de esas necesidades de la pandemia. Para ellas, todo va a seguir igual cuando se supere este escenario. Los peligros son de otra naturaleza”.

Facebook
Twitter
LinkedIn
WhatsApp

Las alarmas: la puerta de las telecos hacia el hogar digital

Las alarmas: la puerta de las telecos hacia el hogar digital



Según estimaciones de la Asociación Española de Empresas de Seguridad (AES), el mercado de alarmas registra crecimientos anuales superiores al 10% – MOVISTAR

 

Las principales operadoras de telecomunicaciones en España aceleran la competición por hacerse con una parte sustancial del mercado de alarmas para el hogar, que según estimaciones de la Asociación Española de Empresas de Seguridad (AES), registra crecimientos anuales superiores al 10%. En los últimos días, a Movistar Prosegur Alarmas -que comenzó a funcionar en marzo de este año- le han surgido dos competidores: Vodafone – Securitas Direct y MásMóvil – SICOR (El Corte Inglés). Mientras, fuentes de Orange– que entró en este negocio en 2017 – apuntan a ABC que «están analizando opciones para replantear el servicio».

Las propuestas de Vodafone y MásMóvil vienen a sumarse a la «joint venture» de Telefónica y Prosegur, que tras un inicio complejo marcado por el primer confinamiento, entre junio y septiembre acumuló 34.000 altas de instalaciones. Tres veces más que en el mismo periodo de 2019 y cuya oferta aportó novedades respecto a «modus operandi» más tradicionales en esta actividad: no hay cuota de entrada ni exigencia de permanencia. Todo ello, potenciado por las más de 1.000 tiendas físicas de Movistar.

Por su parte, Vodafone anunciaba un «acuerdo comercial de colaboración» con Securitas Direct el pasado 12 de noviembre por el que la operadora británica pone a disposición de sus clientes – tanto en sus establecimientos físicos como en su tienda online- los productos de este gigante de la seguridad, especialmente las alarmas. Al respecto, Securitas -con 1,3 millones de clientes en España- asume el resto de la operativa: el estudio de seguridad, la instalación, el mantenimiento y la atención 24/7.

En paralelo, hace apenas unos días, MásMóvil – ahora controlada por los fondos de inversión KKR, Cinven y Providence- decidía lanzarse al ruedo en alianza con SICOR, la nueva división de servicios integrales del Grupo El Corte Inglés (ECI) nacida tras la compra en julio de la empresa de seguridad Mega2. 

La compañía hacía labores de seguridad en los centros de ECI. En concreto, MásMóvil y SICOR prevén sacar próximamente un servicio de alarma para el hogar «conectada con la policía y gestionada en remoto, a través de una aplicación en el móvil sencilla e intuitiva», apuntaba el comunicado.

Todo ello, en un mercado jugoso, en el que según el representante de AES y director general de Tecnología de Prosegur Seguridad Manuel Rodríguez Reguero, «España cuenta con una penetración relativamente baja» de alarmas para hogar o pequeños negocios, lejos de más del 20% de Estados Unidos que casi duplica la tasa española.

Para Visiotech, líder mayorista del sector en España y Europa, la entrada de las telecos en este mercado era «algo esperado desde hace años» ante la mayor demanda de alarmas para pisos y las novedades tecnológicas. Al respecto, desde esta compañía española, apuntan que este año se registró un pico importante de demanda antes del verano, tras finalizar el confinamiento. Lo que atribuyen «a la sensación creciente de inseguridad». En la actualidad, añaden «lo más demandado, son las alarmas y las cámaras de vigilancia». 

Domótica y fidelización del cliente

Los movimientos de Telefónica, Vodafone, MásMóvil y, quizás, Orange miran a más largo plazo: las alarmas pueden convertirse en la llave hacia el denominado «hogar digital». Es decir, hacia el internet de las cosas (IoT, por sus siglas en inglés) que impulsa el despliegue del 5G y permitirá gestionar la climatización de nuestra vivienda, por ejemplo. Una apuesta de futuro que, en palabras del profesor de Esade, Xavier Busquets, forma parte de la «estrategia clásica» de las telecos «de incorporar más servicios a la misma infraestructura». Para este experto, es «el primer paso hacia el hogar conectado», apunta. En una línea similar habla Alberto de Torres, profesor en ESIC y CEO de Nektiu: «La idea es entrar en verticales donde el producto más importante es el IoT como la telemedicina».

En su opinión, queda todo por hacer en domótica a la espera de la eclosión del 5G: «El porcentaje de casas que tienen alarma es muy superior al de las casas domotizadas», apunta este experto quien añade que estamos ante una forma de fidelización. «Cuando tengas domótica habrá más elementos o servicios y cambiar de operador va a costar más», concluye De Torres.

Sin embargo, a decir de expertos como Busquets, este negocio se enfrenta a limitaciones como el coste de los sensores y los modelos de negocio y cooperativos que deberán ponerse en marcha. «Las empresas deberán hacer un análisis detallado del coste – beneficio de la tecnología y su aportación de valor», apunta el profesor de Esade.

Facebook
Twitter
LinkedIn
WhatsApp

Los desafíos de la industria 4.0

Los desafíos de la industria 4.0



Se conoce como Industria 4.0 a la también llamada cuarta revolución industrial. Se trata de la evolución natural de la producción industrial y en cadena. En este caso, la fabricación se ve directamente interpelada por la automatización, el big data y los procesos de aprendizaje automático de la inteligencia artificial.

Estamos hablando de un concepto nacido en 2011 en Alemania, fruto de un grupo de trabajo que incluía políticos, empresarios e investigadores universitarios en la búsqueda de una mejor competitividad de la industria alemana. Posteriormente, este concepto se ha traslado al resto del mundo, siendo utilizado por gobiernos, empresas y el mundo académico.

La diferencia más notable entre la Industria 4.0 y la tercera revolución industrial es la automatización inteligente de los procesos. Esto se produce gracias a la introducción de tecnologías de producción en masa flexibles y personalizadas.

Estamos hablando de sistemas productivos funcionando con máquinas, que operarán de manera independiente o, que cooperarán con los operarios u otras máquinas, para crear un sistema de producción orientado al cliente en constante evolución.

La máquina se convierte en una entidad independiente que recopila datos, los analiza, se autoalimenta, asesora y pilota la fábrica de forma autónoma.

En definitiva, gracias a la autorregulación en tiempo real, los operarios pasarán a comunicarse con las computadoras en lugar de simplemente operarlas.

Eduardo Fierro, fundador y CEO de Newen y colaborador del MIK (Mondragon Innovation & Knowledge) en el área de Industry 4.0. y nuevos negocios, destaca la importancia de que las empresas empiecen a desarrollar una visión integral de cómo gestionarán sus negocios en el futuro: “Para aprovechar la ola de oportunidades que proporcionarán las tecnologías 4.0., las empresas deben entender su rol potencial, sus factores clave de éxito y los dominios tecnológicos en los que deben operar. También deben evolucionar los modelos operativos, tecnologías y habilidades, al mismo tiempo que desarrollan un nuevo enfoque de ecosistema y capitalizan en sus socios las fortalezas complementarias”.

¿Cómo se comunicarán las máquinas?

Los rápidos cambios en las tecnologías de la información y la comunicación (TIC) han roto los límites entre la realidad virtual y el mundo real. La idea detrás de la Industria 4.0 es crear una red, en la que las máquinas, dispositivos y sistemas puedan comunicarse entre sí, llamada Internet de las Cosas (IoT) y con personas, llamada Internet de las Personas (IoP).

Las máquinas podrán crear lo que conocemos como sistema de producción ciberfísico (CPPS). De esta forma, las industrias integran el mundo real en el virtual, permitiéndoles recopilar datos en vivo, analizarlos e incluso tomar decisiones basadas en ellos. 

Principios de diseño de la industria 4.0

Los principios de diseño permiten a los fabricantes investigar una posible transformación a las tecnologías de la Industria 4.0. Estos los más importantes:

Interoperabilidad

Los objetos, las máquinas y las personas necesitan poder comunicarse a través del Internet de las Cosas y el Internet de las Personas. Este es el principio esencial para hacer que verdaderamente una fábrica sea inteligente. Los CPPS (sistemas de producción ciberfísico) deben poder simular y crear una copia virtual del mundo real.

Virtualización

Los CPPS también deben poder supervisar los objetos existentes en el entorno circundante. Estamos hablando de un modelo productivo, en el que convive el mundo virtual con el mundo real, que es donde se ubican estos CPPS.

Descentralización

La capacidad de los CPS para trabajar de forma independiente hace que deban estar descentralizados. De esta forma, se resolverán los problemas en cada caso y los productos serán personalizados. Esto también crea un entorno más flexible para la producción.

Capacidad en tiempo real

Una fábrica inteligente debe poder recopilar datos en tiempo real, almacenarlos, analizarlos y tomar decisiones de acuerdo con los nuevos hallazgos. Esto no solo se limita a cómo se vende el producto y la necesidad de stock, sino también a incidencias en los procesos de fabricación, como el fallo de una máquina en la línea de producción. Los objetos inteligentes deben poder identificar el defecto y volver a delegar tareas en otras máquinas operativas. Esto también contribuye a la flexibilidad y a la optimización de la producción.

Orientación al servicio

La producción debe estar orientada al cliente. Las personas y los dispositivos inteligentes deben poder conectarse de manera eficiente, a través de Internet de Servicios para crear productos basados ​​en las especificaciones del cliente.

Modularidad

En un mercado dinámico, la capacidad de una fábrica inteligente para adaptarse a un nuevo mercado es esencial. En un caso típico, probablemente se necesitaría una semana para que una empresa promedio estudie el mercado y modifique su producción en consecuencia. Por otro lado, las fábricas inteligentes deben poder adaptarse de manera rápida y sin problemas a los cambios estacionales y las tendencias del mercado.

Ventajas de la industria 4.0

Optimización

Una fábrica inteligente que contiene cientos o incluso miles de dispositivos inteligentes, que pueden autorregular la producción, dará lugar a un tiempo de inactividad casi nulo.

Personalización

La creación de un mercado flexible orientado al cliente ayudará a satisfacer las necesidades de producción de manera rápida y automática. Los fabricantes no tendrán que comunicarse internamente (en empresas y fábricas) y externamente (a los clientes). De esta manera, se acelerarán los procesos de producción y entrega.

Desafíos de la industria 4.0

Ciberserguridad

El aspecto más desafiante de la implementación de la industria 4.0 es el riesgo de seguridad en las tecnologías de la información. La integración online permitirá la posibilidad de brechas en la seguridad y fugas de datos. Igualmente, el robo cibernético se prevé como otro potencial problema.

Para José Acebrón, ingeniero de telecomunicaciones, con amplia experiencia en tecnologías IT, ciberseguridad IT y OT «la industria 4.0 se va a basar, entre otros pilares, en la hiperconectividad y la interacción del mundo lógico (digital) con el mundo físico.  Esto hace que la ciberseguridad cobre un papel fundamental.

Aparte de potenciales fugas o robos de información, estamos hablando de efectos físicos de los ciberataques, que pueden afectar a la seguridad de personas, bienes e infraestructuras esenciales y críticas.

En el momento actual, gran parte de la industria e infraestructuras no está adecuadamente preparada para realizar esta hiperconectividad sin aumentar considerablemente su exposición a ciberataques. Pero la demanda del negocio, la presión de la competencia, los nuevos modelos de negocio y el propio cambio tecnológico de los clientes, urge a que esta digitalización asociada a la Industria 4.0 avance rápidamente.

Por todo ello, será fundamental securizar las infraestructuras, los entornos OT y los entornos industriales en los próximos años para poder dar un salto ciberseguro al mundo hiperconectado de la Industria 4.0.

Existen recomendaciones, como IEC62443/ISA99 y otras sectoriales que pueden ayudar a ir recorriendo este camino.

La ciberseguridad tanto IT como OT va a ser así uno de los grandes habilitadores de esta Industria 4.0.»

Capital

Tal transformación requerirá una gran inversión en nuevas tecnologías, que enajena a las empresas más pequeñas y penalizará en el futuro su participación en el mercado.

Empleo

Aunque todavía es pronto para especular sobre las condiciones de empleo con la adopción de la Industria 4.0 a nivel mundial, es seguro decir que los trabajadores necesitarán adquirir habilidades diferentes o un conjunto de habilidades completamente nuevo. Además, la mecanización de muchos puestos generará una menor demanda de mano de obra no cualificada.

Privacidad

En una industria tan interconectada, los productores necesitan recopilar y analizar datos. Para el cliente, esto podría parecer una amenaza para su privacidad. También las empresas pequeñas o grandes, que no han compartido sus datos en el pasado, tendrán que trabajar para lograr un entorno más transparente.

Convergencia tecnológica

Para Alberto de Torres, CEO de Nektiu, el internet de las cosas (IoT), la inteligencia artificial (IA) y el blockchain crearan un ecosistema inteligente de negocios.

“La convergencia de las tecnologías va a permitir la creación de un nuevo ecosistema de relaciones, habilitando una eficiente colaboración en productividad, core de la industria 4.0.  Este ecosistema permitirá un intercambio digital de información, con una integración perfecta con los sistemas empresariales, altamente conectado con las personas, sistemas y cosas (IoT) con identidades digitales y ciberseguridad. Permitiendo optimizar los procesos de negocio, aprendiendo a responder a situaciones diferentes e inesperadas de una manera más eficiente (IA). Y con la confianza que ofrece una única fuente de verdad relacionada con la trazabilidad de los bienes, a través de la cadena de suministro, con un archivo de todas las interacciones digitales (blockchain).

La fuerza del trabajo del futuro

La Industria 4.0 tiene mucho que prometer cuando se trata de ingresos, inversiones y avances tecnológicos, pero el empleo sigue siendo uno de los aspectos más misteriosos de la nueva revolución industrial.

Estas son las áreas o actividades, que sufrirán modificaciones en la oferta y demanda de determinados puestos, dando lugar a la desaparición de determinados perfiles laborales y al aumento de demanda de nuevos empleos, con un mayor futuro en el nuevo ecosistema industrial:

Control de calidad basado en Big Data

En términos de ingeniería, el control de calidad apunta a reducir la inevitable variación entre una pieza producida y la siguiente. El control de calidad depende, en gran medida, de los métodos estadísticos para mostrar si una característica específica de un producto (como la dimensión o la composición) está cambiando a lo largo de una cadena de producción.

Por supuesto, dicho proceso de la recopilación de datos históricos o en tiempo real con respecto al producto. Sin embargo, dado que la Industria 4.0 se basará en big data, la necesidad de control de calidad disminuirá. Por otro lado, la demanda de científicos de big data aumentará.

El ingeniero industrial y especialista en Calidad Total José Luis Prieto considera, que las nuevas tecnologías de la Industria 4.0 han facilitado la incorporación de sensores, como los de tipo óptico (scanner laser), a los elementos de medida empleados en las líneas de producción. Esto ha permitido extender el control de calidad más allá de los lotes, hasta alcanzar el 100% de la fabricación.

“A través de ellos y, en tiempo real, se dispone de información acerca de la capacidad del proceso de producción. Así se puede reducir la variabilidad del citado proceso y disminuir las tolerancias, integrando las fases de diseño, producción y control”, añade el experto.

Producción asistida por robot

La base completa de la nueva industria se basa en que los dispositivos inteligentes pueden interactuar con el entorno circundante. Esto significa que los trabajadores que asisten en la producción serán despedidos y reemplazados por dispositivos inteligentes equipados con cámaras, sensores y actuadores que pueden identificar el producto y luego entregar los cambios necesarios para ello. En consecuencia, la demanda de dichos trabajadores disminuirá y será reemplazada por «coordinadores de robots».

Vehículos logísticos auto controlados

Uno de los enfoques más importantes de la optimización es el transporte. Los vehículos autopropulsados ​​y la asistencia de big data ​​permitirán alargar las horas de trabajo, sin restricciones.

Simulación de la línea de producción

Si bien, la necesidad de optimización para el transporte disminuirá, aumentará la necesidad de ingenieros industriales para simular líneas de producción. Contar con la tecnología adecuada, antes de la puesta en marcha de la producción, incrementará la demanda de puestos de trabajo para ingenieros especializados en el campo industrial y simulación de procesos.

Mantenimiento predictivo

Tener dispositivos inteligentes permitirá a los fabricantes predecir fallos. Las máquinas inteligentes también podrán mantenerse independientemente. En consecuencia, la cantidad de técnicos de mantenimiento tradicionales disminuirá y serán reemplazados por ingenieros más cualificados.

Máquinas como servicio

La nueva industria también permitirá a los fabricantes vender un servicio completo, incluido el mantenimiento, en lugar de una simple máquina. Esto abrirá puestos de trabajo en mantenimiento.

Generación de fuerte demanda tecnológica innovadora

Este es el reto más importante de la Industria 4.0 para José Jiménez, director general de Evaltec y economista con amplia experiencia tecnológica. “Es además, uno de los aspectos de mayor impacto en la economía y en el bienestar de nuestra sociedad.Tal y como hemos visto, la Industria 4.0 se caracteriza por la asimilación de muy diversas tecnologías y la demanda que genera supone un revulsivo efecto tractor para el desarrollo de la economía del conocimiento y de las numerosas startups, que alimentan dicha demanda de tecnologías innovadoras, cuyo desarrollo acaba trasladándose a toda la sociedad”, afirma José.

 

Facebook
Twitter
LinkedIn
WhatsApp