Somos un medio de comunicación independiente cuyo propósito siempre ha sido y será mantener informados a nuestros lectores con las noticias más relevantes del país y el mundo, ayúdanos a mantenernos y a crecer para poder seguir compartiendo noticias y artículos de interés a diario.

Nos puedes ayudar desde $1.000 pesos colombianos

Las grandes decisiones se están basando en datos falsos

Share on facebook
Share on twitter
Share on whatsapp
Share on email
datos
Imagen de: Ámbito Jurídico

Vivimos en una sociedad donde los números y datos son los que marcan nuestro día a día. Todo se ha de convertir en cifras y estadísticas para, a partir de ahí, poder tomar las grandes decisiones: a qué segmento de la población vacunar, cómo organizar el tráfico en las ciudades, cuántas escuelas crear, etc.

La Inteligencia Artificial y el Big Data son campos que han tenido un enorme desarrollo en los últimos años y gracias a ellos las autoridades y las empresas disponen de un mapa completo en el que basar sus decisiones. Pero ¿están siempre bien interpretados los datos? El profesor José Angel Olivas afirma: “Seamos serios desde un punto de vista ético y científico y no veamos los datos como una especie de ‘dios pagano’ que nos proporcionará la verdad absoluta. Nada más lejos de la realidad”.

Le puede interesar: Samsung complementa su portafolio gamer en Colombia con el monitor OLED Odyssey G8

El profesor pone sobre la mesa la discusión sobre la verdadera utilidad de los datos numéricos para determinar su utilidad real, en el informe “Inteligencia artificial, aprovechamiento inteligente de datos masivos usando Ingeniería del Conocimiento”, publicado por OBS Business School, perteneciente a Planeta Formación y Universidades, red internacional de educación superior del Grupo Planeta.

Según explica el informe hay muchas características específicas que deben ser tenidas en cuenta cuando trabajamos con datos, información y conocimiento; y estos elementos no son considerados con su relevancia en la mayoría de los sistemas para el aprovechamiento de los datos masivos disponibles. Ello provoca unos resultados demasiado pobres, erróneos o irrelevantes, lo que se hace evidente en muchos de los sistemas de anticipación al futuro que se publicitan, como el pronóstico electoral, la estimación de evolución de conflictos o pandemias, la evolución de factores económicos, Euribor, IPC, inflación y un largo etcétera.

Por lo tanto, cuando alguien argumenta que algo es objetivo o irrefutable porque se apoya en datos, el argumento es falaz por definición, según indica el profesor Olivas: “Ni hacienda tiene unos datos perfectos ni completos de todos nosotros. Por ejemplo, en esta dura pandemia que nos azota, se han tomado decisiones falaces en base a supuestos datos objetivos”.

Y es que, aunque hoy se manejan millones de datos, lo cierto es que son necesarios sistemas computacionales más inteligentes en el sentido humano y en cuanto a sus prestaciones que muchos de los que usan únicamente técnicas numéricas aisladas, y que son los que hoy en día se asocian principalmente con el término ‘inteligencia artificial’.

Informe

El informe de OBS propone el uso de modelos de ingeniería del conocimiento y otras disciplinas y tecnologías más ‘cognitivas’ y menos ’numéricas’, como el Soft Computing, el enfoque semántico/lingüístico del procesamiento del lenguaje natural o algunos aspectos de la sociología y la psicología con el fin de mejorar el comportamiento y los resultados de estos sistemas. Además, hay que tener OBSbusiness.school en cuenta que un elemento central debe ser la capacidad de transferir esos modelos a la tecnología de la sociedad, el tejido empresarial y la industria, contribuyendo al desarrollo de sistemas computacionales más robustos, humanos y con mayores capacidades de anticiparse al futuro en sus diferentes formas.

El informe de OBS distingue entre datos estructurados, semi-estructurados y no-estructurados.

Los primeros son aquellos fácilmente interpretables porque están organizados de una forma clara en cuanto a campos, registros y relaciones, con formatos prediseñados. Los semiestructurados y los no-estructurados, sin embargo, no siempre están sujetos a formatos predefinidos, como pueden ser un video o una imagen abiertos o un texto libre. Actualmente no existen herramientas que puedan manipular directamente datos no-estructurados, sino que deben ser convertidos en estructurados para poder manejarlos, y ello hace que en el proceso se pierdan características importantes. Un vídeo, una imagen o un texto pueden contener afirmaciones irónicas, por ejemplo, que a día de hoy una máquina no puede interpretar correctamente. Por ello se debe ser muy cuidadoso en el proceso para minimizar las pérdidas de representatividad y así maximizar las posibilidades de aprovechamiento de los datos. José Ángel Olivas, afirma que se bebe seguir investigando en el desarrollo de modelos, técnicas y herramientas que nos acerquen al tratamiento real de datos no-estructurados.

El informe concluye que para abordar problemas complejos no suele ser suficiente la aplicación aislada de algún procedimiento, algoritmo o método de análisis de datos numéricos, que es lo que se suele hacer en muchas ocasiones. Estos mecanismos sólo admiten como entrada conjuntos de datos estructurados, numéricos y normalizables, que dista mucho del contenido de un lago de datos (data lake) unido a todo el conocimiento que puede haber sobre un tema en cuestión.

Lee también: Samsung lleva la pasión más allá con el Galaxy S23

Por lo tanto, en casos reales complejos es necesario, además de hacer un análisis numérico de los datos disponibles, combinarlo con la ingeniería del conocimiento del entorno, que nos guíe en dicho aprovechamiento de datos masivos

Noticias destacadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *