fbpx
Connect with us

Actualidad

La encrucijada entre la ética y la inteligencia artificial

Avatar

Publicado

el

La inteligencia artificial es una etiqueta compleja que tiende a generalizarse para aludir a cualquier capacidad mediante la que las máquinas pueden realizar tareas consideradas propiamente humanas. Se trata de un sintagma poliédrico en el que se suman fenómenos como el reconocimiento, la transcripción y la reproducción de la voz humana y los sonidos, del procesamiento del lenguaje y su generación, de la visión artificial y del reconocimiento automatizado de imágenes o de la voz, entre otros.


A todos ellos se añaden conceptos que salpican los artículos e informes de últimas tendencias, como el machine learning o aprendizaje automático, y el deep learning o aprendizaje profundo basado en la emulación de los sistemas del cerebro y la construcción de redes neuronales.

Estos términos confluyen mezclados con los datos a través múltiples formas: big data, data analytics, data visualization, data science y business intelligence, que hacen dificultoso, en muchos casos, vislumbrar sus usos y posibles aplicaciones en el mundo real y especialmente aclarar todos estos conceptos a la sociedad, poco versada en tecnología pero muy preocupada por cuestiones éticas, regulatorias, de privacidad y de transformación digital en todos los ámbitos.

Aunque el concepto de inteligencia artificial suena reciente, las tecnologías subyacentes a esta etiqueta llevan ya más de seis décadas en desarrollo. Hemos de remitirnos a 1950 para recordar la figura de Alan Turing, que en su artículo Computing Machinery and Intelligence, planteaba la pregunta: “¿Pueden las máquinas hablar como los hombres?”.

El Test de Turing

El Test de Turing sentó las bases del juego de la imitación de la máquina al hombre y pretendía analizar cuándo la máquina confundiría al ser humano emulando sus capacidades lingüísticas. Sobre los avances realizados en los años 50 de la mano de científicos como Marvin Minsky –fundador del Laboratorio de Inteligencia Artificial del Massachusetts Institute of Technology (MIT)– se han construido y mejorado muchos de los algoritmos que están en la base de nuestros sistemas de procesamiento de datos.

Sin embargo, la historia de la inteligencia artificial y de la tecnología aplicada al lenguaje ha estado llena de altibajos. Tras la revolución de Turing, los años dorados de la primera etapa se extendieron hasta 1975, época en la que los sistemas de procesamiento se basaban en algoritmos de reglas fundamentados sobre lógica, para pasar después a un invierno de silencio provocado por los límites del hardware, que volvería a gozar de auge a partir de los años 80 con la introducción del concepto de sistemas expertos.

Un segundo invierno llegó a finales de los años 80 y no ha vuelto a despertar hasta comienzos del presente siglo, pues con el cambio de milenio parece haber resucitado la moda de la inteligencia artificial. ¿Por qué?

Realmente no hay una sola razón sino la conjunción de varios factores que hacen que, para muchos, el actual sea el momento propicio de invertir, desarrollar y transformar la industria gracias a la transformación digital.

El primer revulsivo es la propia tecnología, pues nos encontramos en un momento en que las exponenciales mejoras, tanto a nivel de software –potencia y variedad de algoritmos, cantidad de código abierto u open-source, comunidades amplias de desarrollo…–, como de hardware –creación de máquinas potentes con unidades de procesamiento capaces de asumir la potencia de las multiplicidad de procesos en paralelo que requieren las redes neuronales–, han hecho posible que los procesos de analítica de datos que antes duraban horas, incluso días, arrojen resultados en tiempo real, utilizando espacios minúsculos y a muy bajo coste al alcance de cualquier usuario y desarrollador.

El segundo factor es la cantidad de datos masivos generados exponencialmente, de los cuales se calcula que un porcentaje de entre el 80 por ciento y el 90 por ciento no están estructurados. En 1992 el tráfico diario mundial de Internet era de 100 Gigabit/día y en 2015 ha pasado a ser de 15.000 millones de GB por día. Para 2020 se esperan alcanzar unos 44 zetabytes de datos diarios y, sin embargo, la realidad es que la mayoría de los datos que se producen no se analizan y los no estructurados –como el lenguaje– no se procesan.

Las tecnologías del Procesamiento del Lenguaje Natural (PLN) podrían, en muchos casos, utilizarse para transformar estos datos no estructurados de tipo lingüístico en conocimiento y obtener valor añadido gracias a la clasificación, extracción y entendimiento de la información, que permitirán alcanzar las expectativas que el fenómeno del big data comenzó a prometer hace unos años.

Deberías leer:  ¿Hemos pecado de optimistas ante el cambio climático?

Hay que añadir además un tercer factor, que es la proliferación de artefactos digitales, las denominadas “nuevas plataformas IoT (internet of things o internet de las cosas)”, que permiten a los usuarios interactuar constantemente con sus teléfonos inteligentes u ordenadores, pero mediante interfaces que en muchos casos van más allá de las tradicionales pantallas y se activan mediante la voz, como la tecnología ponible (wearables).

TELOS / Laura Pérez

Tecnologías del lenguaje

Las tecnologías del lenguaje se están convirtiendo en una de las áreas de mayor potencial dentro de la inteligencia artificial, gracias a su combinación con los sistemas tradicionales de Procesamiento del Lenguaje Natural basado en reglas.

Los algoritmos de PLN permiten lograr que la máquina interprete el texto más allá de una secuencia de caracteres binarios, convirtiéndolos en palabras, mediante procedimientos de lematización y stemming (agrupación de palabras de una misma raíz eliminando variantes de singular, femenino, tiempos verbales…), detección de estructuras sintácticas y funcionalidad de las palabras en la frase (POS o Part of Speech), desambiguación e identificación de referencias anteriores en el texto (en demostrativos, pronombres relativos, etcétera), y clasificación semántica utilizando diccionarios especializados (wordnets).

Para que estos funcionen, es necesario acompañarlos de una serie de librerías, gramáticas y diccionarios digitales asociados a cada lengua, que permiten que rápidamente el ordenador pueda codificar los términos existentes en un texto.

Entre los diferentes tipos de diccionarios, caben destacar también los denominados “corpus de polaridad”, que definen cada una de las palabras asociándolas a su carga semántica positiva o negativa, operación básica para poder detectar el proceso conocido como “análisis de sentimiento” que tan frecuentemente se utiliza en análisis de redes sociales –por ejemplo, para hacer minería de opinión en los debates políticos– o para medir la satisfacción de los clientes tras recibir un servicio.

Además de las reglas, otra de las técnicas que se ha empleado desde los años 80 es la aplicación de estadística al análisis lingüístico digital para detectar patrones y realizar inferencias a partir de los mismos. Estos sistemas funcionan en el momento que hay suficientes datos que permitan visibilizar la repetición de patrones mediante técnicas sencillas como el cómputo por frecuencia de palabras.

Nos encontramos ante un momento muy relevante en el que la inteligencia artificial y el lenguaje confluyen en el epicentro del debate, pues la eclosión de interfaces de voz en dispositivos, como los coches autónomos o los asistentes virtuales, ha creado la necesidad de mejora y de incorporación de los mismos a nuestro día a día, cuya funcionalidad es entender el lenguaje humano, procesarlo e interactuar en forma de voz y chatbots y asistentes virtuales como Alexa, Echo, Siri o Cortana.

Una gran brecha

Aunque a día de hoy, el mercado de la inteligencia artificial y específicamente de las tecnologías del lenguaje está dominado por las grandes empresas procedentes del mundo angloparlante –en el que las GAFAs: Google, Amazon, Facebook y Apple se baten con la competencia asiática para ostentar el liderazgo, y esto sin contar la gran competencia que se nos acerca por el sudeste asiático–, observamos que existe una gran brecha entre las soluciones angloparlantes y el resto de las lenguas, en un ámbito en el que en español son comparativamente mucho más débiles –menos de un 30 por ciento de facturación a pesar de ser el segundo idioma más hablado del mundo– y con un mercado muy fragmentado, tanto en empresas tecnológicas como en soluciones específicas aplicadas a la industria.

Nos encontramos en un momento de oportunidad, en el que algunos países de América Latina cuentan con grupos científicamente muy potentes que desarrollan soluciones competitivas en tecnologías del lenguaje de relevancia mundial, pero cuya implementación aún tendrá que realizar una importante transferencia al tejido empresarial para poder competir con uno de los grandes activos que puede ser el catalizador de nuestra competitividad en el ámbito de la inteligencia artificial: nuestra lengua, el español.

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Reportajes

Felipe II y Juan Negrín: los curiosos lazos de dos leyendas negras

Avatar

Publicado

el

BDH- Biblioteca Nacional de España, CC BY-SA

La “leyenda negra” es una expresión que se fundamenta en relatos ajenos, en lo que se podría llamar rumores y en los hechos históricos. En el siglo XVI, España encarnó con mucha fuerza una leyenda negra por varias razones.


El imperio español era en aquella época una potencia de influencia internacional que estaba en varios frentes de guerra. A nivel europeo, los primeros enemigos de España eran los países que no eran de confesión católica: hablamos de los protestantes, de los luteranos o de los anglicanos, por ejemplo.

Retrato de Felipe II, Rey de España (Cornelis Visscher, 1650). BDH - Biblioteca nacional de España, CC BY-SA

Felipe II, hijo de Carlos V, continuó con la labor que emprendió su padre, es decir que prosiguió una lucha mundial para extender la fe católica en el mundo. Por ser el representante de aquel imperio, Felipe II era, para parte de sus coetáneos, el origen de todos los males, con lo cual se le consideraba un déspota tiránico.

Nos proponemos aquí explorar las condiciones de emergencia de dicha expresión de “leyenda negra” aplicada a Felipe II en el siglo XVI en comparación con la fama de Juan Negrín en el siglo XX. Veremos cómo, desde una perspectiva privada y otra más política, la fama de estos dos hombres relevantes de la historia de España con más de tres siglos de diferencia comparten muchos puntos en común.

A los dos, la historiografía los atacó por sus efectos nefastos en el pueblo español en cuanto a tomas de decisiones en el ámbito público.

Resulta que el azar hizo que los dos vivieran sendos fracasos matrimoniales. Felipe II se había casado con Isabel de Valois, con la que tuvo dos hijas: Isabel Clara Eugenia y Catalina Micaela. Pero antes, con su primera esposa, María de Portugal, también había tenido un hijo, el príncipe don Carlos, que sufrió durante toda su vida una enfermedad crónica. Felipe II, al darse cuenta de que no le era posible delegar el poder en su hijo, lo mandó a un torreón convertido en cárcel en el Alcázar de Madrid. Murió en extrañas circunstancias en 1568.

Aquí encontramos las primeras similitudes con la vida de Juan Negrín. Veamos. Negrín se casó una primera vez con María Friedelman, con quien tuvo cinco hijos: Juan, Miguel, Rómulo, Dolores y María. Negrín sufrió la pérdida de sus dos hijas en 1922 y 1925. Así que tanto él como Felipe II vivieron la experiencia más dolorosa que pueda atravesar un padre: la muerte de un hijo. Si al Rey lo acusaron de haber ordenado la muerte de su hijo, no fue el caso para Negrín, pero sí que se le acusó de haber ordenado el asesinato de Andreu Nin, líder del POUM.

Deberías leer:  ¿Hemos pecado de optimistas ante el cambio climático?

Dramas familiares


Pues resulta que esas dos muertes, la del hijo Carlos para Felipe II y la de Nin para Negrín, fueron verdaderas pesadillas en sus respectivas vidas. También entre los dos hombres es parecida la elaboración de una leyenda negra a partir de dichos acontecimientos sospechosos.

En efecto, la historiografía contemporánea de los dos hombres tuvo un papel importantísimo en la difusión de su mala fama. Fue ciertamente Guillermo d’Orange en la época de Felipe II quien alimentó más y mejor la leyenda negra de España y de Felipe II. En su Apología, acusó directamente al monarca de ser el responsable del asesinato de Carlos y también de su mujer Isabel de Valois.

En la época de Negrín, los libros de Jesús Hernández, Yo fui ministro de Stalin, y de Alexander Orlov, La historia secreta de los crímenes de Stalin, cumplieron con la tarea de difundir ampliamente la fama de asesino de Negrín.

La traición de un cercano


Además, tanto Felipe II como Negrín vivieron lo que se podría llamar la traición de un cercano. El secretario del Rey, Antonio Pérez, publicó unos escritos muy virulentos en contra de él, los cuales sirvieron de base a la leyenda negra.

Durante la Guerra Civil, fue Indalecio Prieto, siendo ministro de Defensa con Negrín como jefe del Gobierno, quien le acusó de actitudes casi despóticas cuando lo echó del Gobierno por su pesimismo excesivo.

A Felipe II y a Negrín se les culpó de ser fanáticos, uno por su ansia de poder y de extender la fe católica por el mundo y otro por resistir y, según dicen, alargar inútilmente la Guerra de España.

Finalmente, se puede hacer otra comparación entre las leyendas negras de esos hombres. La historiografía posterior ahondó en los fundamentos de esos mitos hasta hablar de leyenda blanca (Ian Gibson) o rosa (Ricardo García Cárcel) en el caso de la leyenda negra de España.

Lo mismo está sucediendo con Negrín por la multitud de trabajos que han contribuido últimamente a rehabilitar su figura. Tanto en 2008, cuando se le devolvió póstumamente su carné del PSOE, como con las obras de Ángel Viñas, Ricardo Miralles, Gabriel Jackson o Enrique Moradiellos, que matizan, sin lugar a dudas, lo que la historia quiso convertir en un chivo expiatorio.The Conversation

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Seguir leyendo

Educación

Universidades estatales firman convenio de programas comunes de estudio para alumnos postgrados

El acuerdo facilita el intercambio coordinado de conocimiento entre las 18 instituciones que conforman el Consorcio de Universidades del Estado de Chile (CUECH).

Avatar

Publicado

el

Por

Agencia Uno

Calificado como un hito en el desarrollo del área de postgrado en las Universidades Estatales. Esto, ya que se logró con la firma del acuerdo entre los 18 planteles que componen el CUECH, para que las instituciones potencien sus programas de magíster y doctorado, contribuyendo a elevar los estándares de calidad de la educación superior pública.


Este es uno de los proyectos más ambiciosos de la Red de Investigación del Consorcio, que impacta directamente en el desarrollo de capital humano avanzado para asegurar la calidad de los programas de postgrado que se dictan en estas instituciones.

“El convenio tiene una gran importancia para nuestra casa de estudios y va en línea con su Plan Estratégico, además demuestra la colaboración activa que existe entre las Universidad Estatales, potenciando un área que es relevante para las Instituciones”, afirmó el director de la Escuela de Graduados de la UTalca, Arcadio Cerda, quien tuvo un rol activo en la generación del acuerdo.

En tanto, Eduardo Álvarez, director de investigación de la corporación, señaló que la creación de estos programas es “ir un paso más allá, pues implica una colaboración no circunstancial, sino que de mediano y largo plazo”.

Este convenio establece un protocolo común para generar nuevos programas asociativos y potenciar otros ya existentes, mientras que los cuerpos académicos se construirán con el aporte de todos los planteles. Esta medida beneficia a instituciones que hasta ahora no contaban con un claustro para desarrollar programas de doctorados, como lo exige el Sistema Nacional de Acreditación.

El acuerdo también posibilita el intercambio de estudiantes de postgrado en los programas que cuenten con planes comunes, con modalidades que van desde pasantías de investigación hasta co-tutelas de tesis de magíster y doctorado. Esto permite generar una mayor sinergia entre los planteles y los conocimientos que entregan, trabajo que va en línea con los objetivos planteados por la Red de Investigación del Cuech, que involucra a una gran cantidad de académicos de todo Chile.

Deberías leer:  Felipe II y Juan Negrín: los curiosos lazos de dos leyendas negras

Seguir leyendo

Nacional

Hermógenes Pérez de Arce en "Bienvenidos": "Los DD.HH no son lo más importante"

El abogado, economista y periodista chileno, declaró que “los Derechos Humanos no son lo más importante, lo más importante es reconstruir el país”, lo que causó indignación en el panel.

Avatar

Publicado

el

Por

Canal 13

Un tenso momento se vivió esta mañana en el programa de Canal 13, "Bienvenidos", cuando el invitado Hermógenes Pérez De Arce argumentó que no se violaron los Derechos Humanos sistemáticamente en la dictadura de Augusto Pinochet.


Canal 13

Además declaró que los “Derechos Humanos no son lo más importante, lo más importante es reconstruir el país”. Tras esto, la animadora del espacio Tonka Tomicic pidió a Pérez de Arce dejar el estudio, debido al "negacionismo" que utilizó durante sus argumentos, a la par de negar las violaciones a los Derechos Humanos durante la dictadura militar de Augusto Pinochet.

Revisa a continuación el momento donde Hermógenes Pérez de Arce es expulsado del panel:

 

Diversas reacciones ha tenido el momento televisivo, como también, se ha realizado un llamado de atención a los editores del programa, desde las redes sociales al no "prever" e invitar a un político que tiene un historial de apoyo a la dictadura.

 

Deberías leer:  Felipe II y Juan Negrín: los curiosos lazos de dos leyendas negras

 

 

Seguir leyendo

Deberías leer

Síguenos en Facebook

Publicidad