Estándares y seguridad en el uso humano de la IA | Standards and safety in the human use of AI

Standards and safety in the human use of AI
(1 bajt - PDF)
Pobierz

Abstract

The field of ethics and legality in artificial intelligence has largely emerged as a response to the range of individual and social damages that misuse, abuse, bad design or unintended negative consequences of AI systems they can cause, and among them: Potential damages caused by AI systems, denial of autonomy, recourse and individual rights, non-transparent, unexplained or unjustifiable results, invasions of privacy, isolation and disintegration of the social connection and in unreliable, insecure or poor quality results. These results can directly harm people's well-being and public welfare. They can also undermine confidence in the responsible use of AI technologies beneficial to society. We must also take into consideration aspects such as the set of regulations and laws that are applicable according to the legal system and technical standards for the design and construction and use of the resulting services and processes. Currently, almost everything related to Artificial Intelligence or is in the process of development or in projects that seek to find the most appropriate solutions by channeling and focusing different angles and points of view that are contributed by different levels of politics, business and the society. Some of the most consolidated arguments are the guidelines set by the EU; or by more notable companies related to this field, such as IBM, Google or Microsoft. To which technical standards are added so that the arc of possibilities proposed by AI has an adequate future development substrate.

[Español]

Resumen

El campo de la ética y la legalidad en la inteligencia artificial ha surgido en gran medida como una respuesta a la gama de daños individuales y sociales que el mal uso, el abuso, el mal diseño o las consecuencias negativas no intencionadas de los sistemas de IA pueden causar, entre ellos: daños potenciales causados ​​por sistemas de IA, denegación de autonomía, recurso y derechos individuales, resultados no transparentes, inexplicables o injustificables, invasiones de la privacidad, aislamiento y desintegración de la conexión social y en resultados poco confiables, inseguros o de baja calidad. Estos resultados pueden dañar directamente el bienestar de las personas y el bienestar público. También pueden socavar la confianza en el uso responsable de las tecnologías de IA beneficiosas para la sociedad. Asimismo hemos de tener en consideración aspectos como el conjunto de regulaciones y leyes que sean de aplicación de acuerdo al ordenamiento jurídico y a las normas técnicas para el diseño y construcción y uso de los servicios y procesos resultantes. En la actualidad casi todo lo relacionado con la Inteligencia Artificial o está en vías de desarrollo o en proyectos que tratan de buscar las soluciones más adecuadas canalizando y focalizando distintos ángulos y puntos de vista que son aportados por diferentes estamentos de la política, la empresa y la sociedad. Algunos de los argumentos más consolidados son las directrices marcadas por la UE; o por empresas más notables relacionadas con este campo, como IBM, Google o Microsoft. A lo que se agregan estándares técnicos para que el arco de posibilidades propuesto por AI tenga un sustrato de desarrollo futuro adecuado.

Tagi
AI Artificial Intelligence digitiseEU digitalIndustry industry stakeholders EUCommission policy