Xataka
Contenidos contratados por la marca que se menciona

+info

Si solo nos guiáramos por las noticias que copan las secciones de tecnología de los grandes medios, creeríamos que ya estamos viviendo en el futuro que muestran ‘Minority Report’ o ‘Ex-Machina’. Pero basta con salir a la calle para comprobar lo alejados que estamos todavía de esos universos visionarios, cuando no distópicos. La realidad, que es así de porfiada, nos pone rápidamente los pies en la tierra.

Lo cierto es que el potencial de la inteligencia artificial, aunque enorme, está limitado por una serie de factores. Algunos son técnicos y otros muy humanos.

Solo tenemos que ver el ejemplo de la conducción autónoma y sus enormes retos técnicos, éticos y políticos. ¿Debe salvar un coche autónomo a su conductor o a un peatón? ¿Quién es el responsable último de los hechos? Son solo dos cuestiones que sin duda lastran su desarrollo. Hay muchas más. Y tampoco es que sea algo negativo, puesto que resulta fundamental dar respuesta a estas preguntas para que su implementación sea exitosa.

El despliegue continuo y amplio de las tecnologías de inteligencia artificial en todo tipo de bienes de consumo, así como su uso por parte de empresas y administraciones implica una serie de desafíos importantes. Urge por tanto acotar el terreno para definir y comprender mejor estos obstáculos.

No todo cabe en la nube (y hasta el hardware más potente tiene sus límites)

Como decíamos al principio, una interpretación superficial de la actualidad tecnológica nos haría pensar que la IA puede con todo y que, si no lo hace, a corto plazo lo hará. No es así. Por más servidores que se añadan a un centro de datos, el desarrollo del software y las rutinas de IA va siempre por delante de las capacidades del hardware, por lo que siempre nos encontraremos con un importante cuello de botella.

La nube en sí misma, de hecho, puede ser un problema. El envío de grandes volúmenes de datos desde todo tipo de fuentes puede colapsar las infraestructuras de comunicaciones, mientras que una recolección excesiva puede introducir un ruido innecesario en los sistemas de aprendizaje automatizado. Tomemos de nuevo el ejemplo de la conducción autónoma: se estima que un coche con piloto automático podría generar más de 4 TB de datos al día. Se dice muy pronto.

¿Cómo enviamos toda esa información al fabricante para la mejora de sus rutinas, al ayuntamiento para el control de los semáforos y al seguro en carretera para el control de posibles averías? Más complicado todavía: ¿cómo logramos que una IA situada en la nube pueda tomar decisiones que afecten a la seguridad del vehículo y las transmita en milésimas de segundo al coche? Hay ciertas cosas que no son factibles. Al menos por ahora.

Igual que los programadores deben enfrentarse al terror continuo del feature creep, los retrasos en el desarrollo por la introducción desmedida de características y supuestas mejoras, las IA actuales pueden captar más datos de los que puede procesar el hardware. Huawei está tratando atajar este problema con el uso del edge computing y las redes 5G, necesarias no ya por su velocidad, sino porque son las únicas que brindan la latencia necesaria para hacerlo posible.

Esencialmente, el edge computing supone añadir una capa de procesamiento intermedia antes de llegar a la nube. De esta forma, se puede comprimir, preanalizar y digerir los datos al vuelo para que la IA alojada en un centro de datos pueda trabajar más deprisa usando una información que le llega casi masticada. Por ejemplo, un centro de datos Cloud Engine para el control de ciudades inteligentes podría recibir información estadística preprocesada in situ por semáforos inteligentes, o la ficha médica de un ciudadano podría actualizarse al vuelo con predicciones basadas en los datos biométricos precuantificados por su smartwatch.

El edge computing puede llevarse aún más lejos, eliminando la nube casi por completo mediante el uso de nodos de procesamiento independientes. Se trata de una idea bastante radical gracias a la cual los subsistemas que intervienen en la captación de datos podrían hacerse redundantes o autosuficientes, evitando problemas en la comunicación (o ayudando a sortearlos) en caso de que uno de dichos nodos se desconectara.

Por supuesto, cuando el edge computing esté generalizado, la IA habrá avanzado en una nueva dirección. Nos encontramos ante una carrera sin fin, y hemos de ser conscientes de las limitaciones técnicas impuestas tanto por la capacidad de procesamiento como por las herramientas de desarrollo y el despliegue de las propias infraestructuras.

Privacidad no tiene la misma traducción en todos los idiomas

La RAE define la palabra privacidad como el «ámbito de la vida privada que se tiene derecho a proteger de cualquier intromisión». Si nos atenemos al diccionario del español jurídico, la cosa se complica un poco más. Profundiza señalando que se trata de la «facultad de una persona de prevenir la difusión de datos pertenecientes a su vida privada que, sin ser difamatorios ni perjudiciales, esta desea que no sean divulgados».

No son dos formas distintas de decir lo mismo: son dos definiciones con implicaciones muy distintas. Y cada país tiene su propia interpretación, en base a consideraciones sociales únicas y su propio marco legislativo. Lo que funciona en China en Europa sería impensable, y las políticas de privacidad de Estados Unidos no tienen cabida ni en un lado ni en otro.

El resultado de todo esto es un complicado galimatías legal. El desarrollo de inteligencias artificiales potentes y capaces solo es posible si funcionan las economías de escala, por lo que no es posible adaptarlas fácilmente país a país manteniendo resultados homogéneos y utilizables. Además, la información necesaria para entrenar a las redes neuronales puede salir de aspectos muy personales de nuestras vidas. Y cada cultura es distinta. Ahí tenemos el ejemplo de España con las persianas y nuestra protección de lo que consideramos espacios íntimos inviolables.

A todo esto podemos añadir el hecho de que hay un número creciente de auténticos luditas digitales. Algunos expertos han llegado a predecir que en los próximos años un «ruidoso 10%» de la población reaccionará negativamente contra la inteligencia artificial. No porque sea mala, o porque les haya robado el trabajo, sino porque no entienden como funciona, y por tanto desconfiarán de ella.

Una IA que te ayude a comer con inteligencia es benigna y fácil de explicar. Una que examina tu historial de crédito para denegarte una hipoteca no lo es. Tampoco la que determina a qué escuela deben ir tus hijos. Son situaciones personales muy delicadas que pueden encender los ánimos con mucha facilidad.

Por este motivo, compañías implicadas en el desarrollo de inteligencias artificiales para empresas y gobiernos, tal es el caso de Huawei, han de individualizar sus proyectos. Cada país es distinto, y aunque normativas como la GDPR ayudan a establecer líneas base en lo relacionado a la captación de datos personales, hace falta tomar el pulso a la población para saber qué se puede y qué no se puede hacer.

Aceptémoslo: el factor humano sigue siendo imprescindible

Por último, que no menos importante, hemos de hacer frente al hecho de que una IA no podrá sustituir a un ser humano en todos sus aspectos. Y si algún día lo consigue, a lo mejor ya no tenemos que estar hablando de inteligencias artificiales, sino de inteligencias a secas. Hacen falta ingenieros para programarlas y científicos de datos para asegurarse de que el flujo de información es preciso y adecuado, evitando la introducción de sesgos.

Las inteligencias artificiales, además, siguen siendo inexactas. Porque las programan personas de carne y hueso. Así que aunque suene paradójico, y por más que hayan logrado reducir drásticamente los errores humanos a la hora de realizar diagnósticos médicosconducir el tráfico o administrar la energía de ciudades enteras, será un médico quien tome decisiones éticas en un quirófano, un policía quien tenga que hacer soplar a un conductor y el propio consumidor quien, por si acaso, revise su factura eléctrica a final de mes.

Somos falibles, pero también imprescindibles.

Retos que nunca dejarán de serlo

Como hemos podido ver, el desarrollo de la inteligencia artificial es un proceso en continua evolución que abarca consideraciones que van más allá de lo estrictamente relacionado con la tecnología. Hardware, leyes y sociedad tienden a avanzar en la misma dirección pero a ritmos distintos. La clave para las empresas y los gobiernos implicados será ver qué impedimentos están lastrando sus avances.

No para derribar muros sin ton ni son en un ejercicio de todo vale, sino para asegurarse de que las futuras inteligencias artificiales se desarrollan de forma productiva y responsable; solo así se evitará el rechazo de la sociedad y se evitará el estancamiento de iniciativas potencialmente lastradas por los excesos de ambición.

Fotografías | Huawei, Franki ChamakiJens JohnssonPixabaypanumasSebastian StamFancy CraveAlexander Dummer