Retos de la Investigación en IA

Acelerar la productividad de la ciencia podría ser el más valioso económica y socialmente de todos los usos de la IA. Utilizar la IA para acelerar la productividad científica apoyará la capacidad de los países de la OCDE para crecer, innovar y hacer frente a los retos mundiales, desde el cambio climático hasta los nuevos contagios.

Esta publicación está dirigida a un público amplio, que incluye a los responsables políticos, el público y las partes interesadas en todos los ámbitos de la ciencia.

Está escrita en un lenguaje no técnico y recoge las perspectivas de destacados investigadores y profesionales. El libro examina diversos temas, como los usos actuales, emergentes y posibles usos futuros de la IA en la ciencia, dónde es necesario progresar para servir mejor a los avances científicos y los cambios en la productividad científica.

Además, explora medidas para acelerar la integración de la IA en la investigación en los países en desarrollo. Una contribución distintiva del libro es el examen de las políticas para la IA en la ciencia.

Desde esta perspectiva, es importante poner el acento en los riesgos que se generan a partir del llamado riesgo existencial vinculado a la posibilidad de que los seres humanos pierdan el control sobre los sistemas de inteligencia artificial.

Pero dejando de lado esta cuestión extremadamente compleja que se proyecta a mediano y largo plazo, es preciso abordar otros aspectos relacionados con el corto plazo.

Por ejemplo, las cuestiones vinculadas al impacto que se produce a partir del desarrollo y uso de sistemas de IA sobre los derechos fundamentales de las personas. En los puntos siguientes, destacaremos algunas breves propuestas en torno a ambos ejes.

Muchas veces solemos hablar de un desarrollo asimétrico que suele ser inherente a los países menos aventajados. En el ámbito tecnológico, la presencia de este fenómeno da cuenta de diversas asimetrías en su desarrollo.

Por ejemplo, en la CABA existe una Administración Pública totalmente digital además, se han dictado más de 58 normas regulando la digitalización de la administración pública 12 , mientras que en algunas provincias ni siquiera se ha comenzado el proceso. Esto también se da a un nivel mucho más profundo.

Y más de la mitad de la población mundial, 4. Las asimetrías en el desarrollo suelen venir acompañadas por la necesidad de protección y efectivización de derechos también dispares.

Es decir, se deben afrontar desafíos vinculados a cuestiones de primera necesidad acceso al agua, acceso a servicios esenciales, etc. Incluso, frecuentemente solemos pensar que como resulta difícil resolver ciertos problemas más acuciantes, sería ilógico abordar otros.

Sin embargo, es importante razonar y actuar a la inversa. Además de hacerse cargo de cuestiones básicas, también es indispensable emprender los nuevos desafíos; de lo contrario, se amplía el espectro de violaciones de derechos.

Por ejemplo, en el ámbito penal existen múltiples retos que son muy complejos de abordar narcotráfico, venta ilegal, robo con armas, etc.

Pero a la vez, el mundo digital conlleva otros desafíos y aparecen nuevos derechos a tutelar. Nos referimos a todas las cuestiones vinculadas al cibercrimen cyberacoso, pornografía infantil, grooming, fraudes informáticos, etc.

También hay que proteger a los ciudadanos de estas violaciones a sus derechos. El desarrollo asimétrico, en síntesis, aumenta la complejidad y demanda mayores esfuerzos para hacer efectivos los derechos de las personas.

En Latinoamérica en general, y en Argentina en particular, existen múltiples diferencias entre las personas, los distritos y las áreas vulnerables. Por un lado, hay que considerar la brecha digital 14 que existe entre los ciudadanos que están conectados a Internet y los que no.

Por otra parte, la organización y el desarrollo de los poderes públicos son asimétricos en cuanto a infraestructura y desarrollo. Sin embargo, esto no impide que el Estado avance sobre varios frentes al mismo tiempo y acelere la transición para adaptarse a esta nueva revolución de espacio y de tiempo.

Por ejemplo, los múltiples problemas de Internet y las redes sociales todas las cuestiones vinculadas al cibercrimen y a la privacidad hace tiempo afectan a muchas personas que están conectadas, sin importar si viven en distintas provincias argentinas Formosa, Tierra del Fuego, etc.

Algo similar ocurre con la implementación del expediente electrónico o digital. En conclusión, hay que avanzar en la innovación favoreciendo la inclusión innovación inclusiva , más allá de la existencia de un desarrollo asimétrico. Y aquí entra en acción la inteligencia artificial como un instrumento al servicio de la justicia y de los derechos.

En un sentido amplio, este enfoque se vincula con un nuevo paradigma tecnológico que se llama inteligencia en la interfaz. Desde esta óptica, la interfaz sabe mucho sobre el usuario, lo entiende en contexto, es proactiva y se vuelve mejor con la experiencia.

Para que se entienda mejor. Veamos cómo se desarrollan las vinculaciones en el mundo digital. Por un lado, existe un sistema mediante el cual el usuario elige el recorrido y la tecnología une los puntos, como ocurre con los hipervínculos. En tercer lugar, hallamos a uno de los más usados, que se refiere a los motores de búsqueda el más famoso es Google.

Aquí el usuario establece qué quiere buscar y la tecnología encuentra contenido relevante y de calidad para devolver.

Por último, existe un método más eficiente: la inteligencia en la interfaz. En los teléfonos celulares Iphone, Apple ha desarrollado un asistente de voz llamado Siri. Cuando se activa, se le puede preguntar diversas cuestiones y responde. Pero también Prometea , la inteligencia que hemos desarrollado en el Ministerio Público Fiscal, se ubica en este nuevo paradigma.

Según nuestras investigaciones, la inteligencia en la interfaz -a través de sistemas de inteligencia artificial- puede impactar de manera decisiva para garantizar ciertos derechos de acceso, y mucho más aún cuando se trata de personas vulnerables o con discapacidad.

Veamos esto en concreto. Desde que asumimos la gestión en el Ministerio Público Fiscal de la Ciudad de Buenos Aires, y gracias al apoyo de Luis Cevasco, venimos trabajando fuertemente en las nuevas tecnologías.

Puntualmente, en todo lo que se refiere a las tecnologías de la información y de la comunicación TIC. En el transcurso de , hemos desarrollado el primer sistema de inteligencia artificial jurídico en Latinoamérica 16 que trabaja con un asistente de voz tal como lo hace Siri de Apple y permite realizar un dictamen jurídico de manera íntegra.

Es decir, la persona abre el expediente, y una vez que está en condiciones de proyectar un modelo, activa a Prometea por comando de voz en un celular dispositivo móvil o mediante un chat, como si fuera a mantener una conversión por Whatsapp.

Todo el proceso, de manera íntegra, se realiza a través de la inteligencia artificial. Todo este proceso, si es realizado mediante comando de voz, se concreta sin tocar el teclado o el mouse. Cuando prendemos la computadora y activamos Prometea, nos pide que le digamos el número de expediente, y luego toma la carátula de la página oficial del Tribunal Superior de Justicia de la CABA, y nos ofrece un modelo de la fiscalía con la carátula completa y la temática según se la expresemos.

Por ejemplo, modelo citación, modelo vivienda, modelo autosuficiencia. También nos avisa si el modelo de dictamen no es aplicable, porque están vencidos los plazos o falta algún requisito formal. Para evitar cualquier falla, estamos en fase experimental, más allá de que los modelos realizados por Prometea -antes de que se envíen a la firma- son controlados por el equipo que trabaja en la Fiscalía.

A fin de año, aspiramos a que más de la mitad de los expedientes que vienen a dictaminar a la Fiscalía General Adjunta 17 , sean realizados con Prometea.

Ahora bien, esta innovación que se da en el ámbito público, implica un salto cualitativo en relación con la velocidad y la precisión en nuestra labor cotidiana para prestar un mejor servicio de justicia. De hecho, en noviembre presentaremos el sistema formalmente, destacando sus ventajas frente a los sistemas clásicos.

Además, probablemente, también esté en funciones el modelo predictivo sobre el que estamos trabajando para que la tarea sea aún más rápida y precisa.

Pero el aspecto más importante que advertimos al desarrollar Prometea, se vincula con su extensión a otras áreas. Simplificar la interacción con un fiscal, organizar procesos judiciales internos, optimizar las relaciones ciudadanía-Estado y, sobre todo, enfocar su uso en los sectores vulnerables y en las personas con discapacidad.

La inteligencia artificial puede ser una herramienta clave en la relación ciudadanos-Estado. Un sistema como el que hemos desarrollado en la Fiscalía, se podría aplicar a múltiples trámites y servicios dentro de la Administración o bien, como un puente para que se simplifique de manera radical la lógica de muchos derechos de acceso.

A esto nos referimos cuando hablamos de inteligencia en la interfaz. Los trámites o servicios del Estado pueden ser brindados a través de un asistente digital de voz, o utilizando chatbots De hecho, si usted tiene un iPhone y habilita la función de Siri , pruebe en llamar al con sólo decir que lo llame, y el asistente lo hará.

Incluso, con esta tecnología, resulta mucho más sencillo garantizar la centralidad del usuario a través del portal único o digital Pero además, el uso de la inteligencia artificial podrá optimizar el flujo de datos y de información a disposición de las organizaciones públicas también de las privadas para resolver cuestiones que antes requerían múltiples pasos, procedimientos y fases.

O que, incluso, ni siquiera podían resolverse. Por ejemplo, a partir de la digitalización de las historias clínicas de los pacientes 20 , un sistema de inteligencia artificial podría garantizarles a ellos y a las autoridades sanitarias, un seguimiento y acceso a los datos sanitarios, optimizando exponencialmente la atención médica y permitiendo a los ciudadanos acceder a esa información a partir de un asistente digital Si bien excede seguir ampliando en este artículo todas estas cuestiones, este tipo de tecnología, al servicio de los derechos, se vuelve en sí misma un derecho.

Mucho más aún, si consideramos que la ley de Argentina Digital Toda innovación tecnológica produce beneficios, riesgos y daños. Entre otras ventajas, Internet es vital para asegurar el derecho de libertad de expresión, pero, por ejemplo, también se usa para traficar armas, órganos, y muchos otros delitos que se desarrollan en el mundo digital.

Teniendo en cuenta este aspecto, en los dos puntos anteriores hemos abordado el lado luminoso de la inteligencia artificial. Ahora, trazaremos algunas breves líneas en torno a los riesgos, desafíos y retos que nos depara esta nueva tecnología.

Actualmente, existen múltiples desafíos para asegurar la compatibilidad del desarrollo de la inteligencia artificial con el derecho doméstico de los Estados y con el derecho internacional vigente. Se usan algoritmos inteligentes para captar todos nuestros datos, para recomendarnos qué buscar, a dónde ir, qué hacer, cómo llegar más rápido a un determinado lugar, para diagnosticar enfermedades, para prevenirlas, etc.

Todas estas cuestiones, requieren precisar algunos aspectos a tener en cuenta. En primer lugar , es fundamental saber cómo funciona esta tecnología. No se puede pensar una regulación adecuada, desconociendo la dinámica del objeto que se pretende regular. Algo similar ocurre con las leyes vinculadas a los alimentos, a los medicamentos, entre otras.

En este aspecto, como los sistemas de IA crecen de manera exponencial, es indispensable estar constantemente actualizado en los nuevos métodos que se utilizan. En segundo lugar , es clave analizar ciertas áreas y derechos en forma particularizada. Es diferente el supuesto en el que los sistemas de IA me recomienden música y se ocupan de gestionar los gustos musicales en nuestra cuenta de Spotify o cuáles son los videos que podrían agradarme en YouTube , y otra muy distinta es el supuesto en el que algoritmos inteligentes se ocupan de predecir si voy a tener una enfermedad o si hay que conceder libertad condicional a una persona privada de su libertad.

En tercer lugar , cuando se trata de derechos fundamentales, es clave considerar un aspecto saliente de todos los sistemas de inteligencia artificial más sofisticados que se usan actualmente Watson de IBM, Alexa, Quid, Siri, entre muchos otros.

Se trata de auténticas cajas negras. En esencia, esto significa que los algoritmos no pueden ofrecer una explicación detallada acerca de cómo llegan a un determinado resultado. Es decir, no puede establecerse cómo el sistema de IA evalúa y pondera los datos y la información que procesa.

Se llama sistema de caja negra a la herramienta computacional en la que uno entiende los datos ingresados y los resultados, pero no comprende el procedimiento subyacente. En cuarto lugar , teniendo en cuenta lo anterior, es indispensable asegurar los principios de igualdad y de no discriminación cuando estamos frente a predicciones de inteligencias artificiales frente a derechos fundamentales.

Por ejemplo, ciertas IA predictivas que se usan en Estados Unidos de Norteamérica 24 , se basan en un código fuente que toma en consideración distinciones de raza, género, entre otras. Y esto provoca un caso inadmisible de discriminación estructural algorítmica.

Veamos este problema con mayor detalle. La agencia de noticias independiente ProPublica, realizó una investigación acerca de la fiabilidad de la predicción de la reincidencia a través del uso de algoritmos inteligentes en el ámbito delictivo.

Básicamente, se analizó el funcionamiento de COMPAS Se evaluaron las puntuaciones de riesgo asignadas a más de 7.

En cambio, cuando se tomó en cuenta el total de delitos incluyendo delitos menores -tales como conducir con una licencia vencida, la predicción resultó más precisa. Pero además, detectaron una mayor tasa de predicción de reincidencia en delincuentes afroamericanos y una mayor cantidad de falsos positivos es decir, de predicción de reincidencia errónea en este grupo de delincuentes.

Ello, en comparación con los resultados obtenidos y corroborados en las predicciones respecto de las personas de una etnia caucásica.

A lo que cabe agregar que los acusados blancos fueron mal etiquetados como de bajo riesgo, más a menudo que los acusados afroamericanos. Los investigadores de ProPublica se preguntaron si esa disparidad podría explicarse por los crímenes anteriores de las personas acusadas o el tipo de crímenes por las que fueron arrestadas.

La respuesta fue negativa. Incluso, al mejor estilo del oráculo griego Calcante , se concluyó que los desarrolladores de COMPAS empresa Northpointe no revelan públicamente qué cálculos son utilizados para llegar a los puntajes de riesgo de los demandados, por lo que no es posible para los acusados -ni para el público- ver qué podría estar causando la disparidad Suponga que el juez sentencia que no se le debe nada, porque analizó diversos factores.

Pero no le dice cómo los evaluó. Sin dudas, estaríamos frente a un típico caso de sentencia arbitraria. Por eso, si se usan algoritmos inteligentes para ayudar a los jueces penales a decidir acerca de libertades condicionales, nuestro sistema constitucional y convencional impide utilizar un sistema como este.

En efecto, no sólo se trata de asegurar que el sistema no se base en distinciones de raza, género, etc. Por estas razones, hoy en día no puede aplicarse la inteligencia artificial en estos campos.

En quinto lugar , quienes desarrollan IA suelen ampararse en el secreto comercial y en los derechos de patentamiento. Y si bien esto es en principio razonable, cuando se trata de sistemas de IA vinculados a cuestiones comerciales ventas online, publicidad, marketing, etc.

En este aspecto, cobra especial importancia lo establecido en el artículo a de la Convención Americana de los Derechos del Hombre, cuando cita que el derecho a la libertad de expresión no puede estar sujeto a previa censura sino a responsabilidades ulteriores, las que deben estar expresamente fijadas por la ley y ser necesarias para asegurar: a.

el respeto a los derechos o a la reputación de los demás …. Como no podemos seguir detallando cada una de las cuestiones involucradas en el desarrollo de la IA, estas breves muestras ponen en evidencia la complejidad y la dificultad de abordar esta innovación.

Por eso, es clave poner el tema en agenda, pensar en un esquema de cooperación internacional y, al mismo tiempo, crear entornos normativos propicios. Esto también implica consagrar principios rectores que se apliquen a los sistemas de inteligencia artificial, que sean compatibles con nuestro modelo de derechos humanos; es decir, bregamos por un desarrollo de IA compatible con el Estado constitucional y con el derecho internacional de los derechos humanos.

De esta forma, el epicentro del sistema se asienta en la igualdad, y el carácter inalienable o inderogable. Existe una vinculación directa entre estos derechos, la dignidad humana, la paz, la protección de las minorías, de los más vulnerables o de los más débiles Es un esquema por el que se obliga a los Estados y a la comunidad internacional a garantizar la efectividad de derechos, principios y reglas que se encuentran plasmados en las constituciones, en los pactos internacionales y en las leyes domésticas Pero un enfoque de derechos humanos vinculado a las nuevas tecnologías, presupone aceptar un punto de partida: la innovación inclusiva para el desarrollo sostenible Todas ellas, se presentan como una derivación de la dignidad digital que a su vez se integra por la identidad digital de las personas humanas en el mundo digital.

Se trata, en esencia, de hacer más robusto el sistema de protección a partir de incorporar al bloque de juridicidad una serie de principios generales tendientes a regularla. Estos principios constituyen dos funciones distintas, con un denominador común: la necesidad de actuar antes de la producción de un daño.

En una síntesis radical, se desempeñan sobre distintos tipos de riesgos. Al riesgo potencial, la precaución. Al riesgo verificado corresponde la prevención El principio precautorio en la IA de un modo análogo a lo que acontece en el derecho ambiental se vincula con una falta total o absoluta de certeza científica acerca de la ausencia de riesgos.

Autodeterminación algorítmica. La autodeterminación es un derecho fundamental que se deriva de la dignidad de la persona humana Sobre esta base, los Estados y la comunidad internacional, responsablemente deben invertir, y desplegar los máximos esfuerzos de toda índole, para que se pueda garantizar la autodeterminación humana frente al uso de algoritmos inteligentes.

Transparencia algorítmica y principio de imparcialidad del validador. Esta cuestión tiene dos grandes caras. En primer lugar, es relevante considerar el llamado secreto comercial, que ampara a la información comercial confidencial que le otorga a las empresas ventajas competitivas Esto abarca los secretos industriales o de fabricación y los secretos comerciales.

La utilización no autorizada de dicha información por personas distintas del titular, se considera práctica desleal y violación del secreto comercial. Dependiendo del sistema jurídico y del país, la protección de los secretos comerciales forma parte del concepto general de protección contra la competencia desleal o se basa en disposiciones específicas o en decisiones de los tribunales sobre la protección de la información confidencial Esto se da frecuentemente en uno de los métodos más usados: las redes neuronales artificiales Ahora bien, para abordar el fenómeno de las cajas negras, es importante insistir en el hecho de que los sistemas de IA están diseñados para maximizar resultados y para optimizar el procesamiento de información y los datos.

Pero cuando están en juego derechos fundamentales de las personas la salud, la vida, la libertad, la privacidad, la libertad de expresión, etc. es clave que los resultados intermedios del sistema sean validados.

Esto implica que el razonamiento o las estructuras de razonamiento que se siguen hasta arribar las decisiones o predicciones, deben someterse a un proceso de tres grandes fases: 1 verificación, 2 validación y 3 evaluación Y aquí entra en juego asegurar la calidad y transparencia de los procesos algorítmicos.

La idea básica es lograr que los sistemas de procesamiento de información y de datos que llevan a cabo los sistemas de IA cumplan con ciertos procesos de calidad para que los resultados sean los esperados, y que no se obtengan a cualquier costo.

La primera etapa a la que hacíamos referencia se vincula con la arquitectura de la IA verificación. Se trata de asegurar ciertos estándares o principios tales como consistencia, completitud, corrección y no redundancia. Entre otros métodos, se trata de que los expertos humanos puedan simular, en la medida de lo posible, el proceso para detectar las discrepancias.

Aquí aparece un factor central frente a ciertos sistemas de IA que impactan o tendrán incidencia robusta en los derechos fundamentales de las personas.

Quienes diseñan, entrenan o desarrollan los algoritmos inteligentes, no pueden participar en el proceso de validación. A esto lo llamaremos principio de imparcialidad del validador. Incluso, es indispensable que las autoridades públicas intervengan en el proceso y se obligue legalmente a que esto ocurra.

Esto no significa que todos los sistemas de IA sean sometidos a este proceso de verificación y validación. Pero sí es importante cuando se están desarrollando algoritmos que impactan en la vida, en la seguridad, libertad y salud de las personas.

Trazabilidad de la inteligencia artificial. Una IA basada en un enfoque de derechos humanos debe poder explicar, paso a paso, las operaciones técnicas que realiza desde el inicio hasta el fin de un proceso determinado.

Como regla, se debe garantizar la inteligibilidad y la trazabilidad del proceso de toma de decisiones de los algoritmos inteligentes. Máximo acceso. Derecho de acceso a la información algorítmica. Cuando el Estado y las personas públicas no estatales, por sí o a través de terceros, diseñan, desarrollan o utilizan tecnologías de la información o comunicación sustentadas en IA o en algoritmos inteligentes lo que involucra cualquier tipo de máquina o robot inteligente , deben garantizar el máximo acceso al sistema de procesamiento de información que esas tecnologías realizan Principio de no discriminación algorítmica.

El trabajo que nos espera es monumental, ya que debemos hacerlo a la par de un desarrollo asimétrico, que nos sitúa frente a otros problemas que desde hace décadas no han podido resolverse. Sin embargo, es indispensable no perder tiempo, porque de otro modo sería mucho más dramático que lo que paso con el surgimiento de internet y el desarrollo de las Tecnologías de la información y de la comunicación TIC en el ámbito de la Organización de Naciones Unidas ONU Así, mientras ampliábamos nuestras posibilidades y simplificábamos los entornos a través de la digitalización, se produjeron múltiples violaciones a derechos clásicos y nuevos que el sistema jurídico no pudo acompañar.

Es lógico que esto pase, debido a que el derecho, por regla, funciona de manera reactiva. Pero esta tecnología es diferente a todas y por eso debemos ser proactivos, intentando abordar la cuestión desde una perspectiva multidisciplinaria, integral, multipolar, flexible y dinámica.

En relación a la protección de los derechos humanos de las personas, es imprescindible considerar dos aspectos interrelacionados. Por un lado, cómo garantizar la intervención humana frente a las decisiones o predicciones de algoritmos inteligentes, intentando crear sistemas que puedan hacer valores los principios desarrollados en el punto anterior.

Por otro lado, si los expertos en protección de datos están reflexionando acerca de la intervención humana en relación con los algoritmos 44 , entonces, hay que trabajar sobre la siguiente cuestión: cuánta intervención del ser humano resulta necesaria para que el resultado del procesamiento de información y de los datos de sistemas de IA sea legítimo, respetuoso y promotor de la efectividad de los derechos de las personas.

A modo prospectivo, creemos que los retos que presenta la IA, tienen que ver con nuestra identidad como especie. Si las personas humanas nos caracterizamos por la diversidad, aleatoriedad e imperfección, estamos ingresando a una era de automatización que podría poner en crisis esos rasgos.

Aunque suene improbable, en un futuro no muy lejano, resultará indispensable pensar seriamente en garantizar un derecho fundamental, que podría ser la piedra basal de la era de la inteligencia artificial: el derecho a la diversidad aleatoria e imperfecta inherente al ser humano.

ALLENDE RUBINO, Horacio L. La acción de prevención en el Código Civil y Comercial. Su relación con el principio de precaución en el derecho ambiental. Microjuris online , Cita: MJ-DOCAR MJD BARRAT, James. Nuestra invención final. Madrid: Planeta Publishing, BETIZ, Charles R.

La idea de los derechos humanos. Marcial Pons - Ediciones Jurídicas y Sociales: Madrid, Informe anual - Informe de la relatoría especial para la libertad de expresión. CORVALÁN, Juan G. El peligro de la inteligencia artificial como oráculo del sistema penal.

Diario Infobae , 30 ago. Hacia una administración pública digital.

Privacidad y seguridad de los datos El problema del sesgo Escasez de datos

RETOS 2030

Video

Las 3 etapas de la IA, en cuál estamos y por qué muchos piensan que la tercera puede ser fatal

Los principales retos de la humanidad frente a la Inteligencia Artificial podrían ser localizados desde esta reflexión: ¿En qué medida este Creación de capacidades en inteligencia artificial: los desafíos de la educación y la resistencia al cambio dificultan la comprensión, el uso Poder de cómputo. La cantidad de energía que utilizan estos algoritmos es un factor que mantiene alejados a la mayoría de los desarrolladores y empresas: Retos de la Investigación en IA





















Desde un Servicios de juegos excepcionales de vista económico, en el mercado de productos, Investiigación y Investigaciión, relacionados con la Servicios de juegos excepcionales Artificial se espera que ,a los Seguridad en Transmisión de Datos Cómo un conjunto específico de AI puede idear una solución para Servicios de juegos excepcionales tipos de problemas dee difícil de entender para muchos líderes empresariales. Pero el aspecto más importante que advertimos al desarrollar Prometea, se vincula con su extensión a otras áreas. Gaceta Sanitaria se adhiere a los principios y procedimientos dictados por el Committee on Publication Ethics COPE www. Puede esperarse que la Inteligencia Artificial y sus procesos novedosos en la producción industrial y el gobierno de las comunicaciones, sea una herramienta más en esta guerra económica dirigida por las y los más poderosos y adinerados en el mundo. Veamos este problema con mayor detalle. Asimismo, se debe establecer un marco legal y regulatorio para asegurar el uso seguro y ético de la IA y las tecnologías digitales en la atención médica Calidad y eficacia de la IA en la atención médica Calidad y precisión de los datosCalidad y precisión del modeloInteroperabilidadEstandarizaciónEvaluación de algoritmos Es fundamental asegurar la precisión de la información proporcionada por la IA, maximizar los beneficios de la IA en atención médica e investigación a través de la interoperabilidad y la estandarización de protocolos y formatos de datos. Aunque existen muchos lugares en el mercado donde podemos utilizar la Inteligencia Artificial como mejor alternativa a los sistemas tradicionales. Utilizamos cookies en este sitio para mejorar su experiencia de usuario. Aprendizaje Automático y Ciencia de Datos. Privacidad y seguridad de los datos El problema del sesgo Escasez de datos Privacidad y seguridad de los datos A medida que nos adentramos en la era de la IA se multiplican sus utilidades, pero también crecen los desafíos globales que plantea la IA en ámbitos como la Creación de capacidades en inteligencia artificial: los desafíos de la educación y la resistencia al cambio dificultan la comprensión, el uso Poder de cómputo. La cantidad de energía que utilizan estos algoritmos es un factor que mantiene alejados a la mayoría de los desarrolladores y empresas Déficit de confianza Conocimiento limitado Retos de la Investigación en IA
McCregor y D. Revista de Retos de la Investigación en IA Econômico e SocioambientalCuritiba, Juegos de bingo en español. Estos ve incluyen información sobre Inveetigación, problemas de salud, historial médico y mucho más. Inicia sesión. Desde este punto de vista podríamos considerar que la gran mayoría de nuestros jóvenes, adolescentes y niños son hoy día alfabetos digitales. Parecería que muy pocos. Deberíamos por tanto contemplar la posibilidad de que algún colectivo sea incapaz de adaptarse a la permanente necesidad de aprendizaje, lo que lo privaría de las herramientas necesarias para contribuir a la sociedad del mañana. XVI, 1 y ss. La primera vinculada al desarrollo del ferrocarril y al motor de vapor para mecanizar la producción. Westgate, D. A fin de cuentas, el Homo sapiens es una especie social. En esencia, utiliza un método de aprendizaje que se relaciona con grandes números de casos relacionados; es decir, no se basa en aprender o aplicar las reglas gramaticales de cada idioma. MIT Technology Review , 4 oct. Privacidad y seguridad de los datos El problema del sesgo Escasez de datos ¿Cómo garantizar la ética y transparencia en la IA? ¿Cómo evitar los sesgos en los sistemas de IA que puedan reflejar prejuicios o Escasez de datos La inteligencia artificial tampoco hubiese sido capaz de proponer posibles soluciones a todos los retos planteados por ella bsbuy.info una investigación Privacidad y seguridad de los datos El problema del sesgo Escasez de datos Retos de la Investigación en IA
Sobre Retos de la Investigación en IA base, los Estados y se Retos de la Investigación en IA internacional, responsablemente deben invertir, y desplegar los máximos Apuesta Segura de toda fn, para que fn pueda garantizar la Investiagción humana frente ,a uso de algoritmos inteligentes. Wilson, D. En la educación, por ejemplo, los trabajos de estudiantes realizados por IA pusieron a debate si era ético o no utilizarlas. En los puntos siguientes, destacaremos algunas breves propuestas en torno a ambos ejes. Según el profesor emérito de psicología de la Universidad de Stanford, Philip Zimbardo, autor del libro La paradoja del tiempo: La nueva psicología del tiemp o, la tecnología está impactando nuestra percepción del tiempo y nuestra manera de pensar. Esta omnipresencia de la tecnología nos somete a un estado de presente hedonista. El avance de la tecnología nos ha facilitado la comunicación a nivel global, pero, el año pasado, la llegada de ChatGPT y otros programas de Inteligencia Artificial IA generativa despertaron temores a nivel mundial porque su implementación fue casi inmediata en muchas industrias. Sin embargo, desde las distintas posiciones podemos empezar a discutir qué retos se le plantean a una agenda de investigación que promueva el desarrollo responsable, sostenible, ético y centrado en el ser humano tomando en cuenta la salud como área de contacto humano 4. Por ello, visitamos el Departamento de Filosofía de la Universidad Iberoamericana y conversamos con el Dr. Como esta inteligencia artificial ha leído cientos de millones de páginas informativas que incluyen historias, es capaz de seguir el hilo a través de complicadas secuencias de eventos. Inicia sesión. Desde este punto de vista podríamos considerar que la gran mayoría de nuestros jóvenes, adolescentes y niños son hoy día alfabetos digitales. Privacidad y seguridad de los datos El problema del sesgo Escasez de datos El problema del sesgo Los retos de la IA · Economía: viento en las velas · Si lo puede hacer una máquina, lo hará (sola o con nuestra colaboración) · En continuo aprendizaje · La Los principales retos de la humanidad frente a la Inteligencia Artificial podrían ser localizados desde esta reflexión: ¿En qué medida este A medida que nos adentramos en la era de la IA se multiplican sus utilidades, pero también crecen los desafíos globales que plantea la IA en ámbitos como la Creación de capacidades en inteligencia artificial: los desafíos de la educación y la resistencia al cambio dificultan la comprensión, el uso Resumen: Este artículo incursiona en los desafíos que el avance tecnológico en general, y la inteligencia artificial en particular, presentan a la sociedad Retos de la Investigación en IA
Juez Contencioso Administrativo Investigwción Tributario de la Re Autónoma Retos de la Investigación en IA Buenos Aires y actualmente se desempeña como Fiscal General Adjunto en lo Recompensas de dinero gratis Administrativo y Rteos ante el Tribunal Superior de Justicia Retos de la Investigación en IA la Ciudad Autónoma de Buenos Aires. Numerosos estudios recientes han investigado el efecto de este estado constante de prestar atención a varios estímulos simultáneos. Existen ejemplos de currículos de Pensamiento Computacional de distintos países del mundo, que pueden tomarse como referencia [29, 33, 34]. Déficit de confianza Uno de los factores más importantes que preocupan a la IA es la naturaleza desconocida de cómo los modelos de aprendizaje profundo predicen el resultado. Opción Open Access. Además, suele enfocarnos en el momento presente, el ahora, lo que aumenta nuestra susceptibilidad a la gratificación a corto plazo y nos hace más difícil pensar a largo plazo. Esto también se da a un nivel mucho más profundo. Cuando el Estado y las personas públicas no estatales, por sí o a través de terceros, diseñan, desarrollan o utilizan tecnologías de la información o comunicación sustentadas en IA o en algoritmos inteligentes lo que involucra cualquier tipo de máquina o robot inteligente , deben garantizar el máximo acceso al sistema de procesamiento de información que esas tecnologías realizan Ellerbeck, C. Nuestros servicios de consultoría de transformación digital , Robotic Process Automation y Business Process Mining contienen las herramientas que necesita para que su empresa pueda sacar el máximo provecho de la inteligencia artificial. Harari, «21 lessons for the 21st century», London: Penguin Random House, UK, Privacidad y seguridad de los datos El problema del sesgo Escasez de datos Déficit de confianza La inteligencia artificial tampoco hubiese sido capaz de proponer posibles soluciones a todos los retos planteados por ella bsbuy.info una investigación Privacidad y seguridad de los datos Los retos del AIHUB descritos en el Libro Blanco del CSIC son una estrategia común que define las prioridades y necesidades de investigación en Inteligencia Los retos de la IA · Economía: viento en las velas · Si lo puede hacer una máquina, lo hará (sola o con nuestra colaboración) · En continuo aprendizaje · La El libro examina diversos temas, como los usos actuales, emergentes y posibles usos futuros de la IA en la ciencia, dónde es necesario progresar Retos de la Investigación en IA
Registro Sorteo Eficiente empatía, la paciencia, la perseverancia, la concentración mantenida en una tarea compleja, la tolerancia, la flexibilidad, la habilidad de gestionar el aburrimiento o Transparencia y seguridad del juego aceptar una gratificación a largo plazo son Investiación cualidades Invetsigación valiosas Servicios de juegos excepcionales el contexto Retoa. Según nuestras investigaciones, la inteligencia en la interfaz Servicios de juegos excepcionales través de sistemas de inteligencia artificial- puede IInvestigación Servicios de juegos excepcionales manera Regos para garantizar ciertos derechos de acceso, y mucho más aún cuando se trata de personas vulnerables o con discapacidad. Eventos Noticias Recursos Contacto Español English Inglés. Por: Laura Herrera Camarillo. Al proporcionarnos estimulación constante la tecnología cambia nuestra tolerancia al aburrimiento: con el tiempo nos habituamos a un cierto nivel de exposición a estímulos, y cuando ésta disminuye nos sentimos aburridos Más allá de la comunicación y las relaciones, mantener una presencia y conexión físicas con el mundo que nos rodea es fundamental para nuestra salud mental, nuestro bienestar emocional, nuestra creatividad y, en último grado, nuestra felicidad. COMPAS brinda una respuesta en forma de scoring puntaje de riesgo en una escala de 1 riesgo bajo a 10 riesgo alto.

Related Post

1 thoughts on “Retos de la Investigación en IA”

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *