I. Disposiciones generales. MINISTERIO DE ASUNTOS ECONÓMICOS Y TRANSFORMACIÓN DIGITAL. Inteligencia artificial. (BOE-A-2023-22767)
Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial.
31 páginas totales
Página
Zahoribo únicamente muestra información pública que han sido publicada previamente por organismos oficiales de España.
Cualquier dato, sea personal o no, ya está disponible en internet y con acceso público antes de estar en Zahoribo. Si lo ves aquí primero es simple casualidad.
No ocultamos, cambiamos o tergiversamos la información, simplemente somos un altavoz organizado de los boletines oficiales de España.
Cualquier dato, sea personal o no, ya está disponible en internet y con acceso público antes de estar en Zahoribo. Si lo ves aquí primero es simple casualidad.
No ocultamos, cambiamos o tergiversamos la información, simplemente somos un altavoz organizado de los boletines oficiales de España.
BOLETÍN OFICIAL DEL ESTADO
Jueves 9 de noviembre de 2023
Sec. I. Pág. 149140
Las entidades participantes tendrán que cumplir con la normativa europea y nacional
que les resulte aplicable y, en particular, con lo dispuesto en el Reglamento (UE)
241/2021 del Parlamento Europeo y del Consejo, de 12 de febrero de 2021, por el que
se establece el Mecanismo de Recuperación y Resiliencia.
En lo que a la participación se refiere, cualquier entidad seleccionada para participar
en este entorno ha de estar sujeta a la jurisdicción española, por lo que será obligatorio
que se trate de entidades residentes en España o que tengan un establecimiento
permanente en España.
A este respecto hay que indicar que el Tratado de Funcionamiento de la Unión
Europea (TFUE) prohíbe en su artículo 63 las restricciones a los movimientos de
capitales entre Estados miembro de la Unión Europea y entre Estados miembro y
terceros países. Sin embargo, el artículo 65.1.b) de dicho Tratado permite a los Estados
miembro de la Unión Europea tomar medidas justificadas por razones de seguridad,
orden público y salud pública.
En el presente caso, teniendo en cuenta que los requisitos a comprobar son los
aplicables a sistemas calificados de alto riesgo o sistemas de propósito general y
modelos fundacionales, cabe la posibilidad de que interfieran en el orden público o en la
salud pública en España. En ausencia de un marco legal armonizado para los sistemas
de inteligencia artificial antes de la adopción del mencionado Reglamento, el Estado
español podrá requerir que, en el ámbito de esta experiencia, las entidades que
participen, si no son residentes en España, estén obligadas a tener un establecimiento
permanente en España, o bien sean parte de una agrupación de entidades donde el
representante de la agrupación o apoderado único siendo este integrante de la misma,
sea la entidad participante y cuyo domicilio o establecimiento principal se encuentre
necesariamente en territorio español a los efectos del artículo 9 del Real Decreto
Legislativo 1/2010, de 2 de julio, por el que se aprueba el texto refundido de la Ley de
Sociedades de Capital.
Si bien es cierto que en el ámbito del entorno controlado de pruebas no se prevé que
se generen ingresos para las entidades solicitantes, su participación en esta experiencia
implica la dedicación voluntaria de tiempo y recursos, lo que justifica la exigencia del
establecimiento permanente desde un punto de vista de relaciones con la Administración
pública.
III
Con la propuesta del Reglamento por el que se establecen normas armonizadas en
materia de inteligencia artificial, establece una regulación armonizada europea basada
en los riesgos derivados de los sistemas de inteligencia artificial. En este se establecen
normas armonizadas para el desarrollo, la introducción en el mercado y la utilización de
sistemas de inteligencia artificial en la Unión Europea, con un importante foco en
sistemas de inteligencia artificial de «alto riesgo» para la salud y la seguridad o los
derechos fundamentales de las personas.
En este sentido, el Ministerio de Asuntos Económicos y Transformación Digital
impulsa la regulación del procedimiento de selección de los sistemas de inteligencia
artificial que vayan a participar en el entorno controlado de pruebas, ya sean sistemas de
alto riesgo, sistemas de propósito general, o modelos fundacionales, además de cuál
será el papel de los usuarios que los utilizan, de los proveedores de los sistemas de
inteligencia artificial que los desarrollan, de los elementos que éstos últimos deben
implementar, de la comprobación de su correcta implementación, del modelo de
seguimiento, y de las vías de apoyo para estas actividades.
En el caso de los sistemas de propósito general se incluyen en el ámbito de este
entorno controlado de pruebas debido a que estos pueden utilizarse en una pluralidad de
contextos e integrarse en múltiples sistemas de inteligencia artificial y tienen, en
consecuencia, un importante potencial de ser transformados en sistemas de inteligencia
artificial de alto riesgo.
cve: BOE-A-2023-22767
Verificable en https://www.boe.es
Núm. 268
Jueves 9 de noviembre de 2023
Sec. I. Pág. 149140
Las entidades participantes tendrán que cumplir con la normativa europea y nacional
que les resulte aplicable y, en particular, con lo dispuesto en el Reglamento (UE)
241/2021 del Parlamento Europeo y del Consejo, de 12 de febrero de 2021, por el que
se establece el Mecanismo de Recuperación y Resiliencia.
En lo que a la participación se refiere, cualquier entidad seleccionada para participar
en este entorno ha de estar sujeta a la jurisdicción española, por lo que será obligatorio
que se trate de entidades residentes en España o que tengan un establecimiento
permanente en España.
A este respecto hay que indicar que el Tratado de Funcionamiento de la Unión
Europea (TFUE) prohíbe en su artículo 63 las restricciones a los movimientos de
capitales entre Estados miembro de la Unión Europea y entre Estados miembro y
terceros países. Sin embargo, el artículo 65.1.b) de dicho Tratado permite a los Estados
miembro de la Unión Europea tomar medidas justificadas por razones de seguridad,
orden público y salud pública.
En el presente caso, teniendo en cuenta que los requisitos a comprobar son los
aplicables a sistemas calificados de alto riesgo o sistemas de propósito general y
modelos fundacionales, cabe la posibilidad de que interfieran en el orden público o en la
salud pública en España. En ausencia de un marco legal armonizado para los sistemas
de inteligencia artificial antes de la adopción del mencionado Reglamento, el Estado
español podrá requerir que, en el ámbito de esta experiencia, las entidades que
participen, si no son residentes en España, estén obligadas a tener un establecimiento
permanente en España, o bien sean parte de una agrupación de entidades donde el
representante de la agrupación o apoderado único siendo este integrante de la misma,
sea la entidad participante y cuyo domicilio o establecimiento principal se encuentre
necesariamente en territorio español a los efectos del artículo 9 del Real Decreto
Legislativo 1/2010, de 2 de julio, por el que se aprueba el texto refundido de la Ley de
Sociedades de Capital.
Si bien es cierto que en el ámbito del entorno controlado de pruebas no se prevé que
se generen ingresos para las entidades solicitantes, su participación en esta experiencia
implica la dedicación voluntaria de tiempo y recursos, lo que justifica la exigencia del
establecimiento permanente desde un punto de vista de relaciones con la Administración
pública.
III
Con la propuesta del Reglamento por el que se establecen normas armonizadas en
materia de inteligencia artificial, establece una regulación armonizada europea basada
en los riesgos derivados de los sistemas de inteligencia artificial. En este se establecen
normas armonizadas para el desarrollo, la introducción en el mercado y la utilización de
sistemas de inteligencia artificial en la Unión Europea, con un importante foco en
sistemas de inteligencia artificial de «alto riesgo» para la salud y la seguridad o los
derechos fundamentales de las personas.
En este sentido, el Ministerio de Asuntos Económicos y Transformación Digital
impulsa la regulación del procedimiento de selección de los sistemas de inteligencia
artificial que vayan a participar en el entorno controlado de pruebas, ya sean sistemas de
alto riesgo, sistemas de propósito general, o modelos fundacionales, además de cuál
será el papel de los usuarios que los utilizan, de los proveedores de los sistemas de
inteligencia artificial que los desarrollan, de los elementos que éstos últimos deben
implementar, de la comprobación de su correcta implementación, del modelo de
seguimiento, y de las vías de apoyo para estas actividades.
En el caso de los sistemas de propósito general se incluyen en el ámbito de este
entorno controlado de pruebas debido a que estos pueden utilizarse en una pluralidad de
contextos e integrarse en múltiples sistemas de inteligencia artificial y tienen, en
consecuencia, un importante potencial de ser transformados en sistemas de inteligencia
artificial de alto riesgo.
cve: BOE-A-2023-22767
Verificable en https://www.boe.es
Núm. 268