Descubre el Ecosistema IT [Information Technology] y todo sobre Inteligencia Artificial

Home » eBOOKs » ITechLaw publica nuevo libro para una inteligencia artificial responsable

ITechLaw publica nuevo libro para una inteligencia artificial responsable

by José Zegarra
3 minutes read
A+A-
Reset

ITechLaw publica un nuevo libro para una inteligencia artificial responsable e inaugura el periodo de participación pública del borrador de los principios rectores

MCLEAN, Virginia, 26 de mayo del 2019.— International Technology Law Association (ITechLaw) ha publicado Responsible AI: A Global Policy Framework (IA responsable: un marco de políticas globales), un nuevo libro que ofrece un análisis profundo y ocho principios de debate que refieren a algunos de los dilemas morales y tecnológicos más candentes relacionados con el desarrollo responsable, la implementación y el uso de la inteligencia artificial.

Escrito por un grupo multidisciplinario de 54 expertos en legislación tecnológica, representantes de la industria e investigadores de 16 países, el libro ofrece un marco construido en base a los siguientes principios:

  • Sentido ético y beneficios para la sociedad,
  • Responsabilidad,
  • Transparencia y capacidad de explicación,
  • Equidad y ausencia de discriminación,
  • Seguridad y fiabilidad,
  • Datos abiertos y competencia justa,
  • Privacidad, e
  • IA y propiedad intelectual.

El acelerado progreso en las investigaciones, el desarrollo y la implementación de IA es sensacional y a la vez alarmante”, afirmó Charles Morgan, presidente de ITechLaw y editor del libro. “La IA posee un enorme potencial en cuanto a su impacto social positivo, pero también puede tener consecuencias graves y no deseadas. Lógicamente, tanto legisladores como representantes de la industria, organizaciones e investigadores de IA están a la búsqueda de referencias éticas sólidas. Este libro bien documentado detalla estas posibilidades y es un llamado a la acción para acelerar el diálogo global y las iniciativas en pos de una IA responsable”.

El libro abrirá un periodo de participación pública sobre la primera versión del marco de políticas del 23 de mayo al 1 de septiembre en www.itechlaw.org/ResponsibleAI y ResponsibleAI@itechlaw.org. Los comentarios serán tenidos en cuenta para la esperada segunda edición, que se llevará a cabo en 2019.

Aunque esta es una publicación de ITechLaw, no refleja la política de la organización. ITechLaw publicará el trabajo de los autores, que ha llevado un año entero, para que la IA responsable pueda colocarse en la vanguardia de los debates legales y tecnológicos, y para actuar como foro para la participación pública.

Los principios y el marco del debate pueden descargarse de manera gratuita en www.itechlaw.org/ResponsibleAI. El libro impreso de 304 páginas, que explora desafíos y propone soluciones para una IA responsable, puede pedirse con un precio de 45 dólares para los miembros de ITechLaw y 79 dólares para los no miembros. El libro electrónico está disponible por 9,99 dólares.

Siga la conversación en #ResponsibleAI_ITechLaw (Twitter),@ITechLaw (Facebook), International Technology Law Association (LinkedIn).

Con miembros en 70 países, International Technology Law Association (ITechLaw) es la organización líder para profesionales de la ley dedicados a tecnología y legislación.

El texto original en el idioma fuente de este comunicado es la versión oficial autorizada. Las traducciones solo se suministran como adaptación y deben cotejarse con el texto en el idioma fuente, que es la única versión del texto que tendrá un efecto legal.

Social Share or Summarize with AI

¿De cuánta utilidad te ha parecido este contenido?

¡Haz clic en una estrella para puntuarlo!

Promedio de puntuación 0 / 5. Recuento de votos: 0

Hasta ahora, ¡no hay votos!. Sé el primero en puntuar este contenido.

Spread the love

You may also like

Leave a Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Translate »

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More