<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:wfw="http://wellformedweb.org/CommentAPI/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:slash="http://purl.org/rss/1.0/modules/slash/" xmlns:media="http://search.yahoo.com/mrss/" xmlns:wp="http://wordpress.org/export/1.2/" xmlns:excerpt="http://wordpress.org/export/1.2/excerpt/" version="2.0"><channel><title>La Ecuación Digital</title><description>Innovación, tecnología, negocio digital.</description><link>https://www.laecuaciondigital.com</link><lastBuildDate>Sat, 04 Apr 2026 09:49:03 +0000</lastBuildDate><item><title><![CDATA[acens despliega la tecnología de Cisco para modernizar su nube]]></title><link><![CDATA[https://www.laecuaciondigital.com/tecnologias/cloud-computing/acens-cisco-isovalent-ebpf-telefonica/]]></link><pubDate>Sat, 04 Apr 2026 09:49:03 +0000</pubDate><dc:creator>Hernán Rodríguez</dc:creator><dc:identifier>69874</dc:identifier><dc:modified>2026-04-04 10:49:03</dc:modified><dc:created unix="1775299743">2026-04-04 10:49:03</dc:created><guid isPermaLink="true"><![CDATA[https://www.laecuaciondigital.com/tecnologias/cloud-computing/acens-cisco-isovalent-ebpf-telefonica/]]></guid><category>263</category><category>1357</category><description><![CDATA[acens se convierte en la primera entidad de Telefónica en adoptar Isovalent de Cisco, optimizando la seguridad y el rendimiento de sus servicios Kubernetes en España.]]></description><content:encoded><![CDATA[El despliegue de arquitecturas de cloud nativas ha dejado de ser una opción de vanguardia para convertirse en el estándar operativo de la gran empresa en España. Sin embargo, este cambio de paradigma conlleva una complejidad estructral que a menudo compromete la visibilidad y la seguridad de los datos. En este escenario, acens, la filial de servicios cloud de Telefónica, ha dado un paso significativo al integrar la solución Isovalent Enterprise de Cisco. Este movimiento no solo representa una actualización técnica, sino que sitúa a la compañía como la primera entidad dentro del grupo Telefónica en adoptar esta tecnología, estableciendo un precedente sobre cómo gestionar entornos de Kubernetes a gran escala sin sacrificar el control ni la soberanía tecnológica.La decisión de acens responde a una necesidad latente en el mercado de servicios gestionados: la búsqueda de una base de operaciones que sea, a la vez, elástica y extremadamente segura. Al gestionar cargas de trabajo críticas para terceros, la disponibilidad del servicio se convierte en el producto en sí mismo. Aquí es donde surge la pregunta fundamental sobre qué herramientas deben gobernar estos entornos para que el rendimiento no se vea lastrado por las capas adicionales de seguridad y observabilidad.El motor invisible de la eficiencia operativaEn el corazón de esta transformación se encuentra eBPF, una tecnología que permite ejecutar programas en el kernel del sistema operativo Linux sin alterar su código fuente ni cargar módulos adicionales. Según detallan desde acens, la elección de Isovalent (compañía ahora integrada en la estructura de Cisco) frente a las opciones convencionales de código abierto respondió a la exigencia de contar con un soporte de grado empresarial y capacidades avanzadas de multitenencia.La implementación de este tipo de soluciones aborda una de las fricciones históricas en la administración de contenedores: el «overhead» o sobrecarga de red. En infraestructuras tradicionales, la inspección de paquetes y la aplicación de políticas de seguridad suelen generar latencias que, aunque mínimas de forma aislada, se vuelven críticas cuando se escalan a miles de microservicios. Al operar directamente en el kernel, la infraestructura de acens logra una eficiencia en el «datapath» que optimiza el flujo de datos entre los diferentes nodos de su plataforma.Este salto cualitativo permite a los equipos de DevOps centrarse en el despliegue de valor y no tanto en la resolución de cuellos de botella infraestructurales. Imanol Rodríguez Gómez, Director de Operaciones de Servicio en acens, señala que la soberanía tecnológica y la seguridad son pilares de su responsabilidad como proveedores. Para el directivo, la adopción de estas herramientas fortalece la capacidad de aplicar controles avanzados y proteger el tráfico en los múltiples entornos que gestionan, manteniendo una independencia necesaria para garantizar la gobernanza del dato.El dilema del multicloud y la independencia del proveedorUno de los puntos de mayor tensión para los directivos tecnológicos actuales es el riesgo del «lock-in» o dependencia exclusiva de un proveedor de nube pública. acens ha diseñado su estrategia bajo una premisa de flexibilidad multicloud, lo que exige que las herramientas de red y seguridad sean portables y funcionen de manera idéntica ya sea en sus propios centros de datos o en infraestructuras de terceros.La arquitectura basada en Cilium (el proyecto de código abierto sobre el que se construye Isovalent) ofrece precisamente esa capa de abstracción. Al estandarizar la conectividad y la seguridad a nivel de kernel, las políticas se vuelven agnósticas respecto al entorno de ejecución. Esta portabilidad es lo que permite a una empresa del tamaño de acens ofrecer soluciones híbridas con una coherencia operativa que, hasta hace poco, era difícil de alcanzar sin herramientas propietarias muy rígidas.Sin embargo, la gestión de un entorno compartido donde conviven múltiples clientes (multi-tenant) introduce retos adicionales. La necesidad de aislar de forma estricta las cargas de trabajo de distintas organizaciones requiere controles de acceso basados en roles (RBAC) extremadamente granulares. En este sentido, la solución adoptada no solo cifra el tráfico de forma transparente, sino que dota a la plataforma de una capacidad de detección de amenazas en tiempo real que identifica comportamientos anómalos antes de que afecten al resto del ecosistema.Una referencia estratégica para el Grupo TelefónicaEl movimiento de acens no debe leerse de forma aislada. Como brazo especializado en servicios en la nube para empresas, su experiencia sirve de laboratorio y referencia para el resto de las unidades de negocio de Telefónica. La integración de esta tecnología de Cisco marca un hito en la hoja de ruta «cloud-native» del grupo, ofreciendo un modelo de arquitectura probado que equilibra la innovación del software libre con la robustez que demanda el mercado corporativo.La industria de las telecomunicaciones y los servicios IT en España observa con atención estas transiciones. La evolución natural de la tecnología empuja hacia sistemas cada vez más automatizados, pero la resiliencia operativa sigue dependiendo de la calidad de los cimientos. Imanol Rodríguez Gómez subraya que este avance les permite operar Kubernetes con una resiliencia superior, escalando según la demanda y respondiendo de forma proactiva a unos requisitos de seguridad que son, por naturaleza, cada vez más complejos.Al final de este proceso de modernización, la derivada de negocio es clara: la capacidad de una organización para escalar no depende solo de la potencia de su hardware, sino de la inteligencia de su software de red. acens ha optado por un modelo que prioriza la visibilidad profunda y la mínima interferencia, una apuesta que parece ser la respuesta necesaria ante la creciente sofisticación de los ataques cibernéticos y la fragmentación de los entornos de nube.La tensión entre rendimiento y controlA pesar de los beneficios evidentes, la transición a modelos basados en eBPF y arquitecturas de microservicios avanzadas no está exenta de desafíos operativos. Requiere una reconversión de habilidades en los equipos técnicos y una visión de largo plazo que priorice la estabilidad sobre la inmediatez. La pregunta que queda en el aire para muchos directivos del sector no es si deben modernizar sus plataformas de contenedores, sino con qué grado de autonomía pretenden hacerlo.En contraste con las soluciones que prometen simplicidad a cambio de opacidad, el camino elegido por la filial de Telefónica sugiere que el futuro de la infraestructura empresarial pasa por un mayor conocimiento de lo que ocurre en las capas más bajas del sistema. Solo desde ese control se puede garantizar la confianza que los clientes corporativos exigen hoy en día. La arquitectura está lista, el modelo de referencia ya es una realidad en España y el siguiente paso será ver cómo esta eficiencia técnica se traduce en una ventaja competitiva en un mercado de servicios cloud cada vez más saturado.]]></content:encoded><enclosure url="https://www.laecuaciondigital.com/wp-content/uploads/2025/11/soluciones-cloud-200x200.jpg"/><media:content url="https://www.laecuaciondigital.com/wp-content/uploads/2025/11/soluciones-cloud-200x200.jpg" width="200" height="200" type="image/jpeg"/><dc:dataset><_edit_lock><![CDATA[1775319400:1]]></_edit_lock><_edit_last><![CDATA[1]]></_edit_last><_thumbnail_id><![CDATA[63972]]></_thumbnail_id><_encloseme><![CDATA[1]]></_encloseme><post-primary-category><![CDATA[auto]]></post-primary-category><featured_image_override><![CDATA[off]]></featured_image_override><article_style_override><![CDATA[off]]></article_style_override><post_style><![CDATA[style1]]></post_style><post_gallery_style><![CDATA[lightbox]]></post_gallery_style><post_review><![CDATA[off]]></post_review><post_review_style><![CDATA[style1]]></post_review_style><post_review_average><![CDATA[50]]></post_review_average><executive_summary><![CDATA[acens se convierte en la primera entidad de Telefónica en adoptar Isovalent de Cisco, optimizando la seguridad y el rendimiento de sus servicios Kubernetes en España.]]></executive_summary><_led_intencion_editorial><![CDATA[visibilidad_empresa]]></_led_intencion_editorial><_seopress_titles_title><![CDATA[acens despliega la tecnología de Cisco para modernizar su nube]]></_seopress_titles_title><_seopress_titles_desc><![CDATA[acens se convierte en la primera entidad de Telefónica en adoptar Isovalent de Cisco, optimizando la seguridad y el rendimiento de sus servicios Kubernetes en España.]]></_seopress_titles_desc><_seopress_robots_primary_cat><![CDATA[none]]></_seopress_robots_primary_cat><_seopress_redirections_type><![CDATA[301]]></_seopress_redirections_type><_seopress_redirections_logged_status><![CDATA[both]]></_seopress_redirections_logged_status><_seopress_analysis_target_kw><![CDATA[]]></_seopress_analysis_target_kw><BS_author_type><![CDATA[BS_author_is_user]]></BS_author_type><BS_guest_author_name><![CDATA[]]></BS_guest_author_name><BS_guest_author_url><![CDATA[]]></BS_guest_author_url><BS_guest_author_description><![CDATA[]]></BS_guest_author_description><BS_guest_author_image_id><![CDATA[]]></BS_guest_author_image_id><post_parent><![CDATA[0]]></post_parent><menu_order><![CDATA[0]]></menu_order></dc:dataset></item><item><title><![CDATA[LuxQuanta valida NOVA LQ(r) en MADQuantum hasta 100 km]]></title><link><![CDATA[https://www.laecuaciondigital.com/tecnologias/soluciones-cuanticas/luxquanta-nova-lqr-ciberseguridad-postcuantica/]]></link><pubDate>Thu, 02 Apr 2026 20:40:44 +0000</pubDate><dc:creator>Redacción La Ecuación Digital</dc:creator><dc:identifier>69816</dc:identifier><dc:modified>2026-04-03 13:00:56</dc:modified><dc:created unix="1775166044">2026-04-02 21:40:44</dc:created><guid isPermaLink="true"><![CDATA[https://www.laecuaciondigital.com/tecnologias/soluciones-cuanticas/luxquanta-nova-lqr-ciberseguridad-postcuantica/]]></guid><category>729</category><description><![CDATA[La PoC en Madrid valida CV-QKD de LuxQuanta: claves estables hasta 100 km y coexistencia con DWDM, orientada a integrar QKD en redes ópticas existentes.]]></description><content:encoded><![CDATA[LuxQuanta ha cerrado en Madrid una prueba de concepto que pone números, y no solo promesas, a una de las piezas más observadas de la ciberseguridad poscuántica: la distribución cuántica de claves (QKD). La compañía, especializada en QKD de variable continua, ha validado el rendimiento de la segunda generación de su sistema comercial &nbsp;NOVA LQ(r)&nbsp; bajo condiciones que reproducen parámetros representativos de MADQCI, la infraestructura de comunicaciones cuánticas de la Comunidad de Madrid. El objetivo, según la propia empresa, era medir comportamiento en escenarios realistas, con restricciones típicas de redes metropolitanas y regionales.La validación se ha realizado dentro del programa MadQuantum Business Venture, en el marco del proyecto MADQuantum-CM, financiado por la Comunidad de Madrid y por el Plan de Recuperación, Transformación y Resiliencia con fondos de la Unión Europea (NextGenerationEU). Ese encaje institucional importa porque MADQCI actúa como banco de pruebas para definir enlaces, parámetros y escenarios que se parezcan a una red operativa, no a un laboratorio aislado.En términos técnicos, la PoC se ha centrado en tres frentes que suelen condicionar cualquier despliegue de QKD en entornos empresariales: coexistencia con tráfico óptico convencional, estabilidad operativa y escalabilidad. La coexistencia es el punto más sensible, porque muchas redes de transporte y metro en España se apoyan en multiplexación por longitud de onda (DWDM), una técnica que permite enviar múltiples canales por la misma fibra. Integrar un canal cuántico en esa misma infraestructura, sin exigir fibra dedicada, reduce barreras de coste y de ingeniería, pero obliga a demostrar que el canal cuántico mantiene su rendimiento en presencia de señales clásicas más intensas.Según los resultados comunicados por LuxQuanta, el sistema NOVA LQ(r) ha logrado una distribución estable de claves en enlaces de hasta 100 kilómetros sobre fibra óptica estándar. En paralelo, la compañía afirma haber verificado la operación estable del canal cuántico en coexistencia con tráfico DWDM en la misma fibra. En la práctica, esta capacidad apunta a un modelo de despliegue más compatible con redes ya amortizadas, donde reservar fibras exclusivas para QKD suele ser una decisión difícil de justificar en términos de capex y de disponibilidad de pares de fibra.La prueba también ha incluido configuraciones punto a multipunto, con un único transmisor y múltiples receptores. Este matiz tiene implicaciones operativas: en redes metropolitanas y en entornos de centros de datos, la topología rara vez es estrictamente punto a punto. Poder concentrar la emisión y distribuir recepción puede simplificar el diseño, reducir complejidad de despliegue y facilitar escalado, al menos en el plano físico. Aun así, la escalabilidad en QKD no se limita a la topología, también depende de cómo se gestionan claves, políticas de rotación y la integración con sistemas de cifrado existentes, aunque en esta comunicación LuxQuanta se centra en la capa de transporte y en el rendimiento medido.NOVA LQ(r) se presenta como un sistema de QKD de variable continua (CV-QKD). En este enfoque, la información cuántica se codifica en variables continuas de la luz, y su interés industrial suele estar ligado a la compatibilidad con componentes fotónicos y a la posibilidad de integrarse en infraestructuras ópticas. La promesa, en términos de negocio, es añadir una capa de ciberseguridad física para proteger datos críticos frente a amenazas presentes y futuras, incluida la computación cuántica. Conviene precisar el alcance: QKD no cifra por sí misma el tráfico, sino que distribuye claves criptográficas con garantías físicas, que luego se usan en esquemas de cifrado simétrico. El valor está en cómo se generan y comparten esas claves, y en la detección de intentos de interceptación, pero el despliegue real exige encaje con la arquitectura de seguridad existente.La compañía subraya que los datos obtenidos son “técnicos, medidos y reproducibles” y que sirven como guía de estimación para analizar viabilidad de despliegues futuros e integrar criptografía cuántica en redes reales sin infraestructuras dedicadas. En el lenguaje de operadores y responsables de seguridad, esto se traduce en una pregunta concreta: si el canal cuántico puede convivir con DWDM y sostener enlaces de decenas de kilómetros, el coste marginal de introducir QKD podría bajar, porque se aprovechan fibras y equipamiento ya desplegados. Sin embargo, la decisión de adopción suele depender también de factores que no aparecen en una PoC: requisitos de operación 24&#215;7, mantenimiento, monitorización, acuerdos de nivel de servicio, y el modo en que se integra la gestión de claves con los sistemas de cifrado de red o de aplicación.MADQCI, por su parte, se describe como marco de referencia para definir escenarios y enlaces representativos de una red cuántica metropolitana. En este tipo de iniciativas, el detalle de “representatividad” es relevante: una red metro combina tramos cortos y largos, empalmes, variabilidad térmica, y convivencia con tráfico heterogéneo. LuxQuanta afirma que la validación se ha realizado reproduciendo condiciones realistas y restricciones propias de redes metropolitanas y regionales, con la intención de aportar evidencia técnica para futuras integraciones y avanzar hacia despliegues a mayor escala.En el plano empresarial, el mensaje de LuxQuanta se dirige a dos perfiles: operadores, que gestionan la fibra y la capa óptica, y usuarios finales con datos críticos, como centros de datos, administraciones públicas e infraestructuras críticas. La propuesta es incorporar una capa de ciberseguridad cuántica a nivel físico sobre redes ópticas ya desplegadas, evitando nuevas infraestructuras y optimizando el uso de recursos de red. La coexistencia con DWDM es, de nuevo, el argumento que sostiene esa promesa de eficiencia.Vanesa Díaz, CEO de LuxQuanta, vincula la PoC con la validación de “las capacidades más innovadoras” del sistema en condiciones representativas de MADQCI y apunta a que los parámetros analizados permiten optimizar despliegue, flexibilidad y escalabilidad. También sostiene que los datos facilitarán el análisis de viabilidad de nuevos despliegues en redes ópticas existentes orientados a proteger “los datos más críticos de la red”. En una fase como esta, la tensión habitual está entre el rendimiento técnico en un entorno controlado y la complejidad de convertirlo en servicio recurrente, especialmente cuando entran en juego múltiples dominios de red y requisitos de cumplimiento.La prueba de LuxQuanta se suma a un movimiento más amplio en Europa, donde las redes cuánticas metropolitanas y regionales se están utilizando como plataformas de validación para tecnologías de distribución de claves y para modelos de integración con infraestructuras de telecomunicaciones. En el caso madrileño, MADQuantum y MADQCI funcionan como un entorno de referencia para aterrizar decisiones técnicas: qué distancias son razonables, qué topologías se pueden sostener, y qué ocurre cuando el canal cuántico comparte fibra con tráfico clásico.A partir de aquí, la incógnita se desplaza hacia el siguiente escalón: cómo se traduce una validación de alcance y coexistencia en un despliegue operativo con requisitos de disponibilidad, gestión de claves a escala y procedimientos de operación estandarizados. La PoC aporta un dato claro, 100 kilómetros y coexistencia con DWDM, pero el mercado suele pedir algo más que un hito técnico: continuidad de servicio, integración con herramientas de seguridad y un modelo de explotación que encaje con la economía real de las redes metropolitanas.]]></content:encoded><enclosure url="https://www.laecuaciondigital.com/wp-content/uploads/2025/03/luxquanta-200x200.jpg"/><media:content url="https://www.laecuaciondigital.com/wp-content/uploads/2025/03/luxquanta-200x200.jpg" width="200" height="200" type="image/jpeg"/><dc:dataset><_edit_lock><![CDATA[1775294958:1]]></_edit_lock><_edit_last><![CDATA[1]]></_edit_last><_thumbnail_id><![CDATA[52364]]></_thumbnail_id><post-primary-category><![CDATA[auto]]></post-primary-category><featured_image_override><![CDATA[off]]></featured_image_override><article_style_override><![CDATA[off]]></article_style_override><post_style><![CDATA[style1]]></post_style><post_gallery_style><![CDATA[lightbox]]></post_gallery_style><post_review><![CDATA[off]]></post_review><post_review_style><![CDATA[style1]]></post_review_style><post_review_average><![CDATA[50]]></post_review_average><executive_summary><![CDATA[La PoC en Madrid valida CV-QKD de LuxQuanta: claves estables hasta 100 km y coexistencia con DWDM, orientada a integrar QKD en redes ópticas existentes.]]></executive_summary><_led_intencion_editorial><![CDATA[visibilidad_empresa]]></_led_intencion_editorial><_seopress_titles_title><![CDATA[LuxQuanta valida NOVA LQ(r) en MADQuantum hasta 100 km]]></_seopress_titles_title><_seopress_titles_desc><![CDATA[La PoC en Madrid valida CV-QKD de LuxQuanta: claves estables hasta 100 km y coexistencia con DWDM, orientada a integrar QKD en redes ópticas existentes.]]></_seopress_titles_desc><_seopress_robots_primary_cat><![CDATA[none]]></_seopress_robots_primary_cat><_seopress_redirections_type><![CDATA[301]]></_seopress_redirections_type><_seopress_redirections_logged_status><![CDATA[both]]></_seopress_redirections_logged_status><_seopress_analysis_target_kw><![CDATA[]]></_seopress_analysis_target_kw><BS_author_type><![CDATA[BS_author_is_user]]></BS_author_type><BS_guest_author_name><![CDATA[]]></BS_guest_author_name><BS_guest_author_url><![CDATA[]]></BS_guest_author_url><BS_guest_author_description><![CDATA[]]></BS_guest_author_description><BS_guest_author_image_id><![CDATA[]]></BS_guest_author_image_id><post_parent><![CDATA[0]]></post_parent><menu_order><![CDATA[0]]></menu_order></dc:dataset></item><item><title><![CDATA[El BCE elige a DXC Technology para operaciones de TI]]></title><link><![CDATA[https://www.laecuaciondigital.com/actualidad/bce-dxc-technology-infraestructura/]]></link><pubDate>Thu, 02 Apr 2026 20:10:58 +0000</pubDate><dc:creator>Redacción La Ecuación Digital</dc:creator><dc:identifier>69813</dc:identifier><dc:modified>2026-04-03 12:54:56</dc:modified><dc:created unix="1775164258">2026-04-02 21:10:58</dc:created><guid isPermaLink="true"><![CDATA[https://www.laecuaciondigital.com/actualidad/bce-dxc-technology-infraestructura/]]></guid><category>25</category><description><![CDATA[El BCE firma con DXC Technology servicios gestionados de infraestructura y puesto de trabajo desde el EEE, con activos bajo propiedad del banco y operación externalizada.]]></description><content:encoded><![CDATA[El Banco Central Europeo (BCE) ha seleccionado a DXC Technology para respaldar sus servicios de operaciones de TI mediante un acuerdo marco único centrado en infraestructura y puesto de trabajo. La decisión llega en un momento en el que las instituciones europeas, especialmente las que operan bajo marcos regulatorios estrictos, están revisando cómo sostener entornos digitales cada vez más exigentes sin perder control sobre activos críticos ni sobre los criterios de seguridad que rigen su actividad diaria.Según el anuncio de adjudicación de contrato publicado el 31 de marzo de 2026, el BCE ha cerrado con DXC un acuerdo marco con una duración inicial de cinco años y una duración máxima de ocho. El alcance se concreta en la prestación de servicios gestionados de infraestructura de TI y de puesto de trabajo, con una condición operativa relevante: la entrega se realizará exclusivamente desde centros de DXC ubicados en el Espacio Económico Europeo (EEE). En la práctica, este requisito introduce una capa de previsibilidad sobre jurisdicción, cumplimiento y localización de capacidades, un punto que suele pesar en organizaciones que manejan información sensible y procesos de continuidad de negocio.El contrato sitúa a DXC como responsable de las operaciones, el mantenimiento y el soporte de varios servicios de TI del BCE. En un esquema de servicios gestionados, esa responsabilidad suele traducirse en la gestión cotidiana de plataformas, herramientas y procedimientos que permiten que la infraestructura funcione con niveles de servicio acordados, y que el soporte al usuario final, en el caso del puesto de trabajo, mantenga la productividad y reduzca incidencias recurrentes. Aunque el anuncio no detalla qué servicios concretos entran en el perímetro, el planteamiento apunta a una externalización operativa con foco en estabilidad y escalabilidad, dos atributos que, en entornos bancarios centrales, se miden tanto por rendimiento como por resiliencia.Un matiz importante del acuerdo es que el BCE conservará la plena propiedad de todos los activos de TI y continuará alojando sus servicios en centros de datos seguros, alineados con su marco de gobernanza y seguridad. Este diseño, al menos sobre el papel, delimita con claridad la frontera entre control y ejecución: el banco central mantiene la titularidad de la infraestructura y la responsabilidad última sobre el gobierno de la seguridad, mientras que el proveedor asume la operación diaria y el soporte. En organizaciones con obligaciones de supervisión y auditoría, esa separación suele facilitar la trazabilidad, aunque también exige mecanismos de coordinación finos para evitar zonas grises, por ejemplo, en la gestión de cambios, la respuesta a incidentes o la priorización de mejoras.La exigencia de que el servicio se preste desde el EEE añade otra dimensión. No se trata solo de proximidad geográfica, sino de operar dentro de un perímetro normativo común, con implicaciones sobre contratación, protección de datos, subcontratación y acceso a personal. En contraste con modelos globales que distribuyen operaciones entre regiones para optimizar costes o disponibilidad de talento, el enfoque del BCE prioriza previsibilidad regulatoria y control del riesgo asociado a transferencias internacionales. Ese tipo de decisiones suele tener un coste de oportunidad, porque limita el abanico de centros de entrega posibles, aunque también reduce incertidumbres que, en un banco central, pueden pesar más que la eficiencia marginal.Desde DXC, el anuncio enmarca el acuerdo como una extensión de su experiencia en entornos regulados. Juan Parra, presidente para Europa de DXC Technology, afirma: “La solución de DXC se alinea con la visión del BCE y se basa en nuestras capacidades probadas en entornos regulados”. En la misma declaración, Parra vincula el contrato con el papel institucional del BCE: “El BCE desempeña un papel fundamental en el mantenimiento de la estabilidad de precios y la protección del sistema financiero europeo. DXC se enorgullece de apoyar esta misión mediante su amplia experiencia tecnológica y su oferta”. La formulación subraya un elemento que suele estar presente en este tipo de acuerdos: la tecnología se presenta como infraestructura de misión, no como un proyecto aislado.El BCE, como banco central del euro, administra la política monetaria de la eurozona, actualmente compuesta por 20 Estados miembros de la Unión Europea, y también supervisa la actividad bancaria. Ese doble rol, política monetaria y supervisión, condiciona su arquitectura tecnológica y su apetito de riesgo. Los sistemas que soportan operaciones internas, análisis, comunicaciones y servicios digitales deben funcionar con continuidad y con controles estrictos, porque cualquier degradación operativa puede tener efectos indirectos sobre procesos críticos. Por eso, cuando el anuncio habla de “operaciones de TI estables, escalables y modernas”, el énfasis no se limita a rendimiento o actualización tecnológica, también apunta a continuidad, capacidad de adaptación y gobernanza.En el terreno del puesto de trabajo, el contrato sugiere una apuesta por estandarización y soporte gestionado. En organizaciones grandes, el puesto de trabajo, entendido como el conjunto de dispositivos, sistemas operativos, herramientas de colaboración y servicios de soporte al usuario, suele ser un foco constante de fricción: actualizaciones, compatibilidades, gestión de identidades, seguridad del endpoint y respuesta a incidencias.Externalizar parte de esa operación puede reducir carga interna y mejorar tiempos de resolución, aunque introduce dependencias que deben gestionarse con acuerdos de nivel de servicio, métricas y procesos de escalado. Lo curioso es que, en instituciones con alta sensibilidad a la seguridad, el puesto de trabajo suele ser también una superficie de ataque prioritaria, de modo que la coordinación entre operación y gobierno de seguridad se vuelve especialmente delicada.En infraestructura, el acuerdo se describe como servicios gestionados, pero con alojamiento en centros de datos seguros del propio BCE. Esto sugiere un modelo en el que el proveedor opera sobre plataformas que no necesariamente controla como propietario, lo que obliga a definir con precisión responsabilidades sobre parches, configuración, monitorización, copias de seguridad, gestión de capacidad y respuesta ante fallos. En la práctica, la estabilidad operativa depende tanto de la tecnología como de la disciplina de procesos: gestión de cambios, ventanas de mantenimiento, pruebas, documentación y auditoría. En un banco central, además, la trazabilidad de decisiones técnicas suele ser tan importante como el resultado.El acuerdo marco, por su duración, también apunta a una relación de largo recorrido. Cinco años, ampliables hasta ocho, permiten planificar transiciones, consolidar herramientas y, si el contrato lo contempla, introducir modernizaciones progresivas sin convertir cada ajuste en una renegociación. Aunque el anuncio no entra en detalles de alcance evolutivo, la referencia a “operaciones modernas” suele implicar automatización, observabilidad y prácticas de operación más cercanas a modelos de ingeniería de fiabilidad (SRE) o a operaciones basadas en datos, siempre que el marco de gobernanza lo permita. Sin embargo, la modernización en entornos regulados tiende a avanzar con cautela: cada cambio debe encajar con controles, auditorías y requisitos de continuidad.También hay una lectura estratégica en la decisión de mantener la propiedad de activos y el alojamiento en centros de datos del BCE. Frente a modelos de externalización más amplios, donde el proveedor aporta infraestructura propia o se apoya en nubes públicas, aquí se preserva un núcleo de control interno. Eso puede responder a criterios de soberanía operativa, a requisitos de seguridad o a la necesidad de mantener capacidades internas para supervisar y auditar. Aun así, la externalización de operaciones introduce una tensión habitual: la organización busca flexibilidad y agilidad, pero debe evitar que el conocimiento operativo se concentre en exceso en el proveedor. La forma de mitigar ese riesgo suele pasar por documentación exigente, transferencia de conocimiento, equipos mixtos y mecanismos de reversibilidad, aunque el anuncio no especifica cómo se articularán.Para DXC, el contrato con el BCE encaja con su posicionamiento como proveedor de servicios gestionados de infraestructura y modernización de aplicaciones, además de soluciones de software por sector. La compañía, que cotiza en la Bolsa de Nueva York (NYSE: DXC), presenta su propuesta como una combinación de operación, protección y modernización de entornos complejos. En el caso del BCE, el valor del acuerdo no se mide solo por la prestación del servicio, sino por la capacidad de operar bajo un marco de seguridad y gobernanza definido por el cliente, con exigencias de cumplimiento y control.A partir de aquí, la incógnita relevante será cómo se traducirá el acuerdo en cambios visibles dentro del BCE: si se orientará principalmente a consolidar y estabilizar operaciones existentes, o si abrirá espacio para introducir automatización y nuevas prácticas operativas sin alterar el equilibrio entre control interno y ejecución externa. En contratos de este tipo, el detalle no suele estar en el anuncio, sino en la gestión cotidiana, donde se decide si la relación se limita a mantener el servicio o si acaba empujando una evolución sostenida del modelo operativo.]]></content:encoded><enclosure url="https://www.laecuaciondigital.com/wp-content/uploads/2025/03/servicio-bancarios-200x200.jpg"/><media:content url="https://www.laecuaciondigital.com/wp-content/uploads/2025/03/servicio-bancarios-200x200.jpg" width="200" height="200" type="image/jpeg"/><dc:dataset><_edit_lock><![CDATA[1775217353:1]]></_edit_lock><_edit_last><![CDATA[1]]></_edit_last><_thumbnail_id><![CDATA[52750]]></_thumbnail_id><post-primary-category><![CDATA[auto]]></post-primary-category><featured_image_override><![CDATA[off]]></featured_image_override><article_style_override><![CDATA[off]]></article_style_override><post_style><![CDATA[style1]]></post_style><post_gallery_style><![CDATA[lightbox]]></post_gallery_style><post_review><![CDATA[off]]></post_review><post_review_style><![CDATA[style1]]></post_review_style><post_review_average><![CDATA[50]]></post_review_average><executive_summary><![CDATA[El BCE firma con DXC Technology servicios gestionados de infraestructura y puesto de trabajo desde el EEE, con activos bajo propiedad del banco y operación externalizada.]]></executive_summary><_led_intencion_editorial><![CDATA[visibilidad_empresa]]></_led_intencion_editorial><_seopress_titles_title><![CDATA[El BCE elige a DXC Technology para operaciones de TI]]></_seopress_titles_title><_seopress_titles_desc><![CDATA[El BCE firma con DXC Technology servicios gestionados de infraestructura y puesto de trabajo desde el EEE, con activos bajo propiedad del banco y operación externalizada.]]></_seopress_titles_desc><_seopress_robots_primary_cat><![CDATA[none]]></_seopress_robots_primary_cat><_seopress_redirections_type><![CDATA[301]]></_seopress_redirections_type><_seopress_redirections_logged_status><![CDATA[both]]></_seopress_redirections_logged_status><_seopress_analysis_target_kw><![CDATA[]]></_seopress_analysis_target_kw><BS_author_type><![CDATA[BS_author_is_user]]></BS_author_type><BS_guest_author_name><![CDATA[]]></BS_guest_author_name><BS_guest_author_url><![CDATA[]]></BS_guest_author_url><BS_guest_author_description><![CDATA[]]></BS_guest_author_description><BS_guest_author_image_id><![CDATA[]]></BS_guest_author_image_id><post_parent><![CDATA[0]]></post_parent><menu_order><![CDATA[0]]></menu_order></dc:dataset></item><item><title><![CDATA[OPPO Find X9 Ultra: teleobjetivo 10x de 50 MP]]></title><link><![CDATA[https://www.laecuaciondigital.com/dispositivos/smartphones/oppo-find-x9-ultra-hasselblad/]]></link><pubDate>Thu, 02 Apr 2026 20:00:51 +0000</pubDate><dc:creator>Redacción La Ecuación Digital</dc:creator><dc:identifier>69812</dc:identifier><dc:modified>2026-04-03 12:48:05</dc:modified><dc:created unix="1775163651">2026-04-02 21:00:51</dc:created><guid isPermaLink="true"><![CDATA[https://www.laecuaciondigital.com/dispositivos/smartphones/oppo-find-x9-ultra-hasselblad/]]></guid><category>265</category><description><![CDATA[OPPO integra un teleobjetivo Hasselblad 50 MP con zoom óptico 10x apoyado en periscopio de quíntuple prisma y estabilización sensor shift para controlar vibración.]]></description><content:encoded><![CDATA[OPPO ha puesto fecha a su próximo lanzamiento global en fotografía móvil: el 21 de abril presentará el Find X9 Ultra, un terminal que la compañía sitúa como su nuevo buque insignia para imagen y que llega con un foco muy concreto, el zoom. La promesa, formulada en términos de ingeniería más que de software, gira alrededor de un teleobjetivo Hasselblad de 50 megapíxeles con zoom óptico 10x, una cifra poco habitual en smartphones de gama alta.El anuncio encuadra el dispositivo como el “avance más significativo” en la historia de OPPO y coloca el teleobjetivo como pieza central de un conjunto más amplio de cambios en hardware y fotografía computacional. La compañía no ha detallado aún el resto de especificaciones del teléfono, pero sí ha dedicado la mayor parte del comunicado a explicar cómo pretende resolver un problema físico que, en la práctica, condiciona el diseño de cámaras móviles: el espacio.Pete Lau, vicepresidente sénior y director de producto de OPPO, ha presentado el Find X9 Ultra como un salto en capacidades de zoom dentro de un formato de bolsillo. “Al introducir el teleobjetivo Hasselblad 50MP 10x Ultra-Sensing Optical-Zoom, que permite un zoom óptico real de 10x y el primer zoom de calidad óptica de 20x del sector, estamos ampliando los límites de lo que es posible con el zoom en un smartphone”, afirma. En su formulación, el énfasis está en el “zoom óptico real” y en la idea de “calidad óptica” a 20x, dos expresiones que suelen utilizarse para diferenciar la ampliación basada en lentes y sensores de la que depende principalmente del recorte digital.En el mercado actual, OPPO sostiene que la mayoría de los modelos de referencia se quedan en 4x o 5x de zoom óptico. El motivo, según la compañía, no es tanto una falta de ambición como una restricción geométrica: para lograr más aumento óptico se necesita una distancia focal efectiva mayor, y eso exige recorrido interno para la luz, lentes y elementos mecánicos. En un smartphone, ese recorrido compite con batería, placa base, disipación térmica y el propio grosor del dispositivo.La respuesta de OPPO, tal y como la describe, pasa por una nueva “estructura de periscopio de reflexión de quíntuple prisma” (Quintuple Prism Reflection Periscope Structure). El concepto de periscopio en móviles se apoya en desviar la luz dentro del cuerpo del teléfono, normalmente mediante un prisma, para “acostarla” y ganar longitud óptica sin aumentar el grosor. OPPO eleva esa idea con cinco reflejos separados, un diseño que, según el comunicado, cumple los requisitos físicos para un zoom óptico 10x.La compañía añade un dato que apunta a la tensión habitual entre rendimiento y diseño industrial: este sistema reduciría la longitud del módulo de cámara en un 30%. En términos prácticos, esa reducción es la que permitiría integrar un objetivo 10x sin penalizar, al menos en exceso, el perfil del terminal. Aun así, OPPO no concreta el grosor final del dispositivo ni el volumen real del módulo, por lo que el impacto en ergonomía y en el clásico “bulto” de cámara queda pendiente de ver en el producto final.Junto al periscopio, OPPO introduce otra capa de control sobre la luz: la Pristine Optical Path Architecture, una “arquitectura de trayectoria óptica” que busca, en palabras de la marca, que los datos de imagen que llegan al sensor sean “excepcionalmente puros”. Aquí el comunicado entra en detalles de fabricación: el prisma estaría construido con tres piezas de precisión separadas por un diafragma a escala nanométrica, descrito como pionero en la industria, además de una cápsula de aire especializada.Este tipo de descripciones suelen apuntar a un objetivo concreto, reducir reflejos internos, dispersión y pérdidas de contraste, problemas que se vuelven más visibles cuanto más complejo es el camino óptico. En un sistema con múltiples rebotes, cualquier imperfección, contaminación o microdesalineación puede traducirse en flare, pérdida de nitidez o artefactos. OPPO no aporta métricas (por ejemplo, transmisión de luz, MTF o niveles de aberración), pero sí deja claro que el diseño pretende controlar el “ruido” óptico antes de que el software entre en juego.El tercer bloque técnico del anuncio se centra en la estabilización. OPPO reconoce un hecho conocido por cualquiera que haya usado zoom largo en un móvil: el temblor de la mano se amplifica con el aumento. A 10x, pequeñas vibraciones se convierten en desplazamientos visibles, y eso afecta tanto a foto como a vídeo, especialmente en condiciones de poca luz donde el tiempo de exposición tiende a alargarse.Para ese escenario, la compañía dice haber diseñado un sistema de estabilización óptica “Sensor Shift” completamente nuevo, con un rango de estabilización “líder en el sector”. Sensor Shift suele referirse a mover el propio sensor para compensar el movimiento, en lugar de (o además de) desplazar elementos de la lente. En móviles, donde el espacio es limitado y las tolerancias mecánicas son críticas, esta aproximación puede ofrecer ventajas, aunque también introduce complejidad en control, calibración y consumo. OPPO no especifica el rango en grados o milímetros, ni si el sistema trabaja en varios ejes, pero lo presenta como un componente necesario para que el 10x sea utilizable de forma consistente.El teleobjetivo Hasselblad 50MP 10x Ultra-Sensing Optical-Zoom Telephoto se describe como “pieza central” de un conjunto de innovaciones que abarcan hardware y fotografía computacional. Esa combinación es relevante porque, en la práctica, el rendimiento final de un zoom en smartphone depende tanto de la óptica como del procesamiento: fusión de fotogramas, reducción de ruido, superresolución, compensación de movimiento y reconstrucción de detalle. Sin embargo, OPPO no entra en qué técnicas concretas aplicará ni cómo se integrarán con el nuevo módulo.También queda en el aire el alcance real de la afirmación sobre el “primer zoom de calidad óptica de 20x del sector”. La expresión sugiere que, aunque el zoom óptico sea 10x, el sistema podría ofrecer un 20x con resultados comparables a los de una ampliación óptica, probablemente mediante una combinación de recorte, algoritmos y estabilización. Es un terreno donde las marcas suelen competir en narrativa, porque el usuario percibe el número de aumentos como una medida directa, aunque la calidad dependa de factores menos visibles. OPPO no aporta ejemplos, comparativas ni condiciones de prueba, por lo que la verificación práctica quedará para el lanzamiento y las pruebas independientes.El anuncio, además, refuerza la continuidad de la serie Find como escaparate de cámara. Lau lo formula como una “misión” de la gama, una manera de justificar que el salto se concentre en un componente muy específico. Aun así, el comunicado no aclara si este enfoque en zoom implica cambios en el resto del sistema de cámaras (principal, ultra gran angular, sensores auxiliares) o si el Find X9 Ultra se apoya en un equilibrio más clásico con el teleobjetivo como elemento diferencial.OPPO ha confirmado que desvelará “todos los detalles” en el evento global del 21 de abril. Hasta entonces, el mensaje es claro: la compañía quiere disputar el territorio del zoom largo, un área donde el límite no es solo el software, sino la física del recorrido óptico dentro de un chasis cada vez más delgado. Lo curioso es que, en un mercado donde muchas mejoras se anuncian en términos de IA y procesamiento, OPPO ha elegido poner el foco en prismas, diafragmas y estabilización mecánica. El 21 de abril se verá si esa apuesta se traduce en resultados sostenidos en condiciones reales, o si el 10x queda reservado para escenarios muy concretos, como suele ocurrir cuando el aumento se estira al máximo en un dispositivo de bolsillo.]]></content:encoded><enclosure url="https://www.laecuaciondigital.com/wp-content/uploads/2026/04/OPPO-Find-X9-Ultra_KV-200x200.jpg"/><media:content url="https://www.laecuaciondigital.com/wp-content/uploads/2026/04/OPPO-Find-X9-Ultra_KV-200x200.jpg" width="200" height="200" type="image/jpeg"/><dc:dataset><_edit_lock><![CDATA[1775216957:1]]></_edit_lock><_edit_last><![CDATA[1]]></_edit_last><_thumbnail_id><![CDATA[69865]]></_thumbnail_id><post-primary-category><![CDATA[auto]]></post-primary-category><featured_image_override><![CDATA[off]]></featured_image_override><article_style_override><![CDATA[off]]></article_style_override><post_style><![CDATA[style1]]></post_style><post_gallery_style><![CDATA[lightbox]]></post_gallery_style><post_review><![CDATA[off]]></post_review><post_review_style><![CDATA[style1]]></post_review_style><post_review_average><![CDATA[50]]></post_review_average><executive_summary><![CDATA[OPPO integra un teleobjetivo Hasselblad 50 MP con zoom óptico 10x apoyado en periscopio de quíntuple prisma y estabilización sensor shift para controlar vibración.]]></executive_summary><_led_intencion_editorial><![CDATA[visibilidad_empresa]]></_led_intencion_editorial><_seopress_titles_title><![CDATA[OPPO Find X9 Ultra: teleobjetivo 10x de 50 MP]]></_seopress_titles_title><_seopress_titles_desc><![CDATA[OPPO integra un teleobjetivo Hasselblad 50 MP con zoom óptico 10x apoyado en periscopio de quíntuple prisma y estabilización sensor shift para controlar vibración.]]></_seopress_titles_desc><_seopress_robots_primary_cat><![CDATA[none]]></_seopress_robots_primary_cat><_seopress_redirections_type><![CDATA[301]]></_seopress_redirections_type><_seopress_redirections_logged_status><![CDATA[both]]></_seopress_redirections_logged_status><_seopress_analysis_target_kw><![CDATA[]]></_seopress_analysis_target_kw><BS_author_type><![CDATA[BS_author_is_user]]></BS_author_type><BS_guest_author_name><![CDATA[]]></BS_guest_author_name><BS_guest_author_url><![CDATA[]]></BS_guest_author_url><BS_guest_author_description><![CDATA[]]></BS_guest_author_description><BS_guest_author_image_id><![CDATA[]]></BS_guest_author_image_id><post_parent><![CDATA[0]]></post_parent><menu_order><![CDATA[0]]></menu_order></dc:dataset></item><item><title><![CDATA[IA y gobernanza del dato: ventaja competitiva en 2026]]></title><link><![CDATA[https://www.laecuaciondigital.com/tecnologias/inteligencia-artificial/ia-gobernanza-dato-2026/]]></link><pubDate>Thu, 02 Apr 2026 19:50:46 +0000</pubDate><dc:creator>Redacción La Ecuación Digital</dc:creator><dc:identifier>69811</dc:identifier><dc:modified>2026-04-03 12:38:57</dc:modified><dc:created unix="1775163046">2026-04-02 20:50:46</dc:created><guid isPermaLink="true"><![CDATA[https://www.laecuaciondigital.com/tecnologias/inteligencia-artificial/ia-gobernanza-dato-2026/]]></guid><category>262</category><category>261</category><description><![CDATA[Stratesys sitúa la gobernanza del dato como base para activar IA: integrar silos, asegurar calidad y trazabilidad, y llevar la información al proceso operativo.]]></description><content:encoded><![CDATA[El objetivo prioritario de las direcciones generales para 2026 es validar la operatividad de sus activos de datos, asegurando que la información disponible pueda traducirse efectivamente en acciones de negocio. Tras años de inversión en digitalización, el debate se desplaza desde la captura y el almacenamiento hacia algo menos visible, pero más determinante, la integración, la calidad y la activación de datos y contenido dentro de los procesos.Según un análisis de la multinacional tecnológica Stratesys, más del 60% de la información empresarial sigue infrautilizada en repositorios desconectados, un lastre que limita el impacto real de la inteligencia artificial en las organizaciones. La cifra apunta a un problema estructural: no se trata de falta de datos, sino de exceso de fragmentación, de reglas poco claras y de una arquitectura que no está pensada para que la información circule con sentido de negocio.La tesis que plantea la compañía es que la ventaja competitiva en 2026 se decidirá en la intersección de tres piezas que, por separado, ya son familiares para el mercado: información integrada, inteligencia artificial y modelos avanzados de gobernanza. La diferencia, sostiene Stratesys, es que ahora empiezan a operar como un sistema. Si una falla, el resto pierde tracción.Luis Fernández-Sanguino, socio-director del área Content Driven de Stratesys, lo formula en términos de madurez: “Las organizaciones han avanzado en digitalización, pero muchas siguen sin convertir su información en decisiones efectivas. La clave ahora está en integrar, gobernar y activar esa información dentro del negocio”. En esa frase hay un cambio de foco. La digitalización, entendida como despliegue de herramientas, deja de ser el centro. Lo que pasa a primer plano es el modelo operativo que permite que la información se use, se confíe y se trace.IA y gobernanza del dato en 2026: del repositorio al procesoDurante las últimas décadas, muchas empresas han desplegado sistemas corporativos como ERP, CRM o plataformas documentales. Cada uno ha resuelto necesidades concretas, pero también ha generado su propia lógica de datos, sus permisos, sus taxonomías y sus formas de registrar la actividad. El resultado, en la práctica, suele ser un mapa de información distribuida, con duplicidades y zonas grises sobre cuál es la “fuente de verdad” para cada decisión.En ese contexto, la infrautilización no siempre significa que la información esté “parada”. A menudo está activa, pero de forma local: sirve para un departamento, para un flujo concreto o para un cumplimiento mínimo. Lo que no consigue es escalar como activo transversal. Y ahí es donde la inteligencia artificial, que necesita contexto y consistencia, se encuentra con límites que no son algorítmicos, sino organizativos.Stratesys sitúa la gobernanza de la información como condición crítica para transformar datos y contenido en decisiones de negocio. Gobernanza, en este marco, no se reduce a un conjunto de políticas técnicas. Implica definir responsabilidades, criterios de calidad, trazabilidad y seguridad, y hacerlo de manera que la información pueda integrarse en los procesos sin convertirse en un cuello de botella.La trazabilidad, por ejemplo, importa porque permite entender de dónde viene un dato, qué transformaciones ha sufrido y quién lo ha validado. Sin esa cadena, el uso de IA en decisiones sensibles puede amplificar errores con apariencia de precisión. La seguridad, por su parte, deja de ser un perímetro y pasa a ser un atributo del dato y del contenido, especialmente cuando se combinan fuentes internas con automatizaciones que operan en tiempo real.Información integrada e IA: eficiencia operativa con condicionesLa compañía describe una evolución hacia modelos de información unificados, donde datos estructurados y contenido convergen en un mismo entorno. En términos prácticos, significa reducir silos y facilitar que la información esté disponible cuando el proceso la necesita, no cuando el usuario consigue encontrarla. El matiz es relevante: la integración no es solo conectividad entre sistemas, también es coherencia semántica, es decir, que “cliente”, “pedido” o “incidencia” signifiquen lo mismo a lo largo de la organización.Sobre esa base, la inteligencia artificial acelera la automatización de procesos intensivos en información, desde la gestión documental hasta el análisis de datos. La promesa es conocida: más productividad, menos tareas repetitivas, decisiones más rápidas. Sin embargo, el texto de Stratesys introduce una condición que muchas implantaciones han aprendido por la vía difícil, la calidad de la información.“La integración entre datos y contenido es lo que permite escalar el uso de la inteligencia artificial y trasladar su impacto al negocio”, explica Fernández-Sanguino. La frase sugiere que el valor no está en pilotos aislados, sino en la capacidad de llevar la automatización a procesos completos, con continuidad y control. En contraste con los primeros despliegues de IA, centrados en casos de uso puntuales, el enfoque que se plantea para 2026 exige que la información esté preparada para operar como infraestructura.El propio directivo añade una advertencia que funciona casi como criterio de inversión: “La inteligencia artificial solo genera valor cuando se apoya en información fiable y bien gobernada. Sin esa base, el riesgo de amplificar errores es elevado”. La idea de “amplificar” es especialmente pertinente en automatizaciones que afectan a múltiples áreas, porque un fallo de calidad deja de ser un incidente local y se convierte en un patrón repetido.Gobernanza del dato como prioridad estratégicaStratesys sostiene que la gobernanza de la información deja de ser una iniciativa técnica para convertirse en una prioridad estratégica. En la práctica, ese cambio suele implicar que el gobierno del dato y del contenido se conecte con objetivos de negocio, con métricas operativas y con decisiones de inversión. También obliga a resolver tensiones internas: velocidad frente a control, autonomía de equipos frente a estándares comunes, o explotación de información frente a requisitos de seguridad.El texto apunta a una transición desde modelos centrados en el almacenamiento hacia arquitecturas orientadas a procesos, donde la información actúa como activo operativo. Es un desplazamiento sutil, pero con consecuencias. Cuando el centro es el repositorio, el éxito se mide por volumen, disponibilidad o cumplimiento. Cuando el centro es el proceso, el éxito se mide por tiempos de ciclo, reducción de errores, capacidad de auditoría y consistencia de decisiones.En ese marco, la gobernanza se convierte en el mecanismo que permite que la integración no sea frágil. Sin reglas claras, la integración tiende a degradarse con el tiempo: aparecen excepciones, atajos, campos “temporales” que se vuelven permanentes y capas de datos que nadie se atreve a tocar. Con reglas demasiado rígidas, en cambio, la organización pierde agilidad y la información deja de acompañar al negocio.“La ventaja competitiva ya no está en tener más tecnología, sino en cómo se gestiona la información dentro del negocio y cómo se convierte en decisiones”, afirma Fernández-Sanguino. La formulación evita el fetichismo tecnológico y desplaza la conversación hacia capacidades internas: quién decide qué es un dato válido, cómo se resuelven discrepancias, qué se automatiza y con qué controles.Stratesys y el mercado: acompañamiento y escala internacionalStratesys enmarca su propuesta como un acompañamiento a organizaciones que buscan definir e implementar modelos de gestión de la información que integren datos y contenido, establezcan marcos de gobernanza y permitan activar el valor de la IA en operaciones. La compañía se presenta como multinacional tecnológica española, con más de 25 años de trayectoria, más de 5.000 proyectos en 60 países y un equipo de 1.800 profesionales distribuidos entre España, Portugal, Alemania, Reino Unido y varios mercados de América Latina.Ese perfil, de hub entre Europa y América, encaja con un tipo de demanda que se ha vuelto más frecuente: empresas con operaciones distribuidas que necesitan consistencia informacional sin perder adaptación local. Aunque el texto no entra en detalles de sectores o casos concretos, la insistencia en integración y gobernanza sugiere un foco en organizaciones con múltiples sistemas heredados y con presión por industrializar la IA más allá de pruebas de concepto.Lo que queda abierto, mirando a 2026, es el ritmo al que las empresas podrán convertir esta agenda en ejecución. Integrar información y gobernarla implica tocar procesos, responsabilidades y, a menudo, incentivos internos. La IA puede acelerar resultados, pero también hace más visible la fragilidad de la base informacional. En ese equilibrio, la competitividad parece depender menos de adoptar una herramienta concreta y más de construir una disciplina sostenida sobre cómo se produce, se valida y se usa la información cada día.]]></content:encoded><enclosure url="https://www.laecuaciondigital.com/wp-content/uploads/2025/04/inteligencia-artificial_gobernanza-200x200.jpg"/><media:content url="https://www.laecuaciondigital.com/wp-content/uploads/2025/04/inteligencia-artificial_gobernanza-200x200.jpg" width="200" height="200" type="image/jpeg"/><dc:dataset><_edit_lock><![CDATA[1775216394:1]]></_edit_lock><_edit_last><![CDATA[1]]></_edit_last><_thumbnail_id><![CDATA[54267]]></_thumbnail_id><post-primary-category><![CDATA[auto]]></post-primary-category><featured_image_override><![CDATA[off]]></featured_image_override><article_style_override><![CDATA[off]]></article_style_override><post_style><![CDATA[style1]]></post_style><post_gallery_style><![CDATA[lightbox]]></post_gallery_style><post_review><![CDATA[off]]></post_review><post_review_style><![CDATA[style1]]></post_review_style><post_review_average><![CDATA[50]]></post_review_average><executive_summary><![CDATA[Stratesys sitúa la gobernanza del dato como base para activar IA: integrar silos, asegurar calidad y trazabilidad, y llevar la información al proceso operativo.]]></executive_summary><_led_intencion_editorial><![CDATA[visibilidad_empresa]]></_led_intencion_editorial><_seopress_titles_title><![CDATA[IA y gobernanza del dato: ventaja competitiva en 2026]]></_seopress_titles_title><_seopress_titles_desc><![CDATA[Stratesys sitúa la gobernanza del dato como base para activar IA: integrar silos, asegurar calidad y trazabilidad, y llevar la información al proceso operativo.]]></_seopress_titles_desc><_seopress_robots_primary_cat><![CDATA[none]]></_seopress_robots_primary_cat><_seopress_redirections_type><![CDATA[301]]></_seopress_redirections_type><_seopress_redirections_logged_status><![CDATA[both]]></_seopress_redirections_logged_status><_seopress_analysis_target_kw><![CDATA[]]></_seopress_analysis_target_kw><BS_author_type><![CDATA[BS_author_is_user]]></BS_author_type><BS_guest_author_name><![CDATA[]]></BS_guest_author_name><BS_guest_author_url><![CDATA[]]></BS_guest_author_url><BS_guest_author_description><![CDATA[]]></BS_guest_author_description><BS_guest_author_image_id><![CDATA[]]></BS_guest_author_image_id><post_parent><![CDATA[0]]></post_parent><menu_order><![CDATA[0]]></menu_order></dc:dataset></item><item><title><![CDATA[Nutanix Kubernetes Platform integra seguridad de RapidFort]]></title><link><![CDATA[https://www.laecuaciondigital.com/tecnologias/seguridad/nutanix-kubernetes-seguridad-rapidfort/]]></link><pubDate>Thu, 02 Apr 2026 19:40:45 +0000</pubDate><dc:creator>Redacción La Ecuación Digital</dc:creator><dc:identifier>69810</dc:identifier><dc:modified>2026-04-03 12:28:18</dc:modified><dc:created unix="1775162445">2026-04-02 20:40:45</dc:created><guid isPermaLink="true"><![CDATA[https://www.laecuaciondigital.com/tecnologias/seguridad/nutanix-kubernetes-seguridad-rapidfort/]]></guid><category>353</category><description><![CDATA[La integración de RapidFort en Nutanix Kubernetes Platform automatiza seguridad de la cadena de suministro, reduce CVE y aporta trazabilidad de librerías en híbrido y edge.]]></description><content:encoded><![CDATA[Nutanix y RapidFort han anunciado un acuerdo de colaboración para integrar capacidades automatizadas de seguridad de la cadena de suministro de software en Nutanix Kubernetes Platform (NKP). El movimiento sitúa la seguridad de Kubernetes en un terreno que muchas organizaciones conocen bien: el choque cotidiano entre velocidad de entrega y control operativo, especialmente cuando el perímetro ya no es un único centro de datos y el despliegue se reparte entre nube, on‑premise y edge.El anuncio se hizo público durante KubeCon Ámsterdam, un escaparate habitual para alianzas que buscan bajar a producto debates que llevan años en la industria. En este caso, la promesa es concreta: combinar NKP, orientada a ejecutar Kubernetes “en cualquier entorno”, con la automatización de RapidFort para reducir vulnerabilidades antes de que el software llegue a producción, según la información facilitada por ambas compañías.Steve Carter, Director of Product Marketing at Nutanix, enmarca el acuerdo en una fricción recurrente. A medida que las organizaciones amplían sus entornos cloud‑native y desplazan inversión hacia iniciativas de IA, los equipos de infraestructura tienden a priorizar control y cumplimiento, mientras que los desarrolladores presionan por ciclos de entrega más cortos. “En ese contexto, la seguridad suele convertirse en sinónimo de lentitud”, afirma Carter, aludiendo a tareas manuales de parcheo y a la revisión de informes de CVE (Common Vulnerabilities and Exposures), el sistema de referencia para catalogar vulnerabilidades conocidas.La colaboración pone el foco en un punto que a menudo se pasa por alto cuando se habla de “Kubernetes seguro”: el clúster puede estar bien gobernado y, aun así, ejecutar imágenes con una superficie de ataque innecesaria. En la práctica, buena parte del riesgo se desplaza a la cadena de suministro de software, es decir, al conjunto de dependencias, librerías y artefactos que terminan empaquetados en un contenedor. La gestión tradicional de vulnerabilidades suele operar de forma reactiva, detectando un problema, corrigiéndolo y redeplegando. El planteamiento que Nutanix y RapidFort describen pretende adelantar ese trabajo, reduciendo exposición antes del despliegue.Para los clientes de NKP, el acuerdo se traduce en tres líneas de valor que las compañías destacan. La primera es el acceso a imágenes “Curated Near‑Zero CVE” de RapidFort. La idea es ofrecer contenedores optimizados y minimalistas, eliminando paquetes innecesarios y código que no se utiliza en ejecución, pero que puede resultar atractivo para un atacante. En términos operativos, esto apunta a un principio simple: cuanto menor sea el contenido de una imagen, menos componentes habrá que vigilar, parchear o justificar.La segunda línea es la remediación automatizada. Según el anuncio, la integración facilitará identificar y eliminar vulnerabilidades a lo largo de toda la cadena de suministro de software, evitando semanas de trabajo manual. Aquí el matiz importante es el “a lo largo de toda la cadena”: no se trata solo de escanear una imagen al final del pipeline, sino de sostener un proceso continuo que reduzca la acumulación de deuda de seguridad. Aunque el comunicado no entra en detalles de implementación, el objetivo declarado es recortar el tiempo que hoy se consume en tareas repetitivas, especialmente cuando los equipos se ven obligados a priorizar entre corregir CVE y mantener el ritmo de entrega.La tercera línea es la consistencia entre entornos. Nutanix y RapidFort hablan de “pruebas criptográficas del origen de cada librería en el stack”, tanto en un centro de datos local como en despliegues edge distribuidos. En un ecosistema donde el mismo servicio puede ejecutarse en ubicaciones distintas, la trazabilidad del origen de componentes se vuelve un requisito práctico para auditorías internas y para políticas de despliegue basadas en confianza. La formulación sugiere un enfoque de verificación de procedencia que, sin ser nuevo en el sector, suele chocar con la complejidad de aplicarlo de forma uniforme cuando hay múltiples equipos, repositorios y ciclos de release.En el plano técnico, la integración se alinea con el enfoque de control mediante políticas de NKP, según explican las compañías. NKP se presenta como una plataforma para gestionar clústeres en entornos híbridos, y la aportación de RapidFort se describe como “inteligencia en tiempo de ejecución”: observar qué necesita realmente un contenedor para funcionar y eliminar todo lo demás. El resultado, sostienen, es una imagen reducida a lo esencial.Ese detalle, el de observar el comportamiento real en ejecución, apunta a una tensión habitual en seguridad de contenedores. Muchas estrategias se basan en listas de paquetes y dependencias declaradas, pero el uso efectivo en runtime puede ser menor. Reducir la imagen a lo que se utiliza de verdad puede disminuir el número de componentes expuestos a vulnerabilidades conocidas y, de paso, simplificar el inventario de software que un equipo debe mantener. Sin embargo, el beneficio depende de que el proceso no rompa compatibilidades ni introduzca fricción en el ciclo de desarrollo, un riesgo que suele aparecer cuando se endurecen imágenes sin una integración suficientemente automatizada.Nutanix encuadra el acuerdo en un objetivo más amplio: permitir que los equipos de plataforma ejecuten Kubernetes “en cualquier entorno” sin convertir la seguridad en un freno. La lectura empresarial es clara. En organizaciones que están empujando proyectos de GenAI o reorientando presupuestos hacia iniciativas de IA, el coste de oportunidad de dedicar semanas a remediación manual es alto. A la vez, la presión regulatoria y de cumplimiento no desaparece, y en algunos casos se intensifica cuando se despliegan cargas en entornos de nube soberana o en infraestructuras distribuidas.El comunicado también sugiere que la propuesta no se limita a escenarios de aplicaciones nuevas. Menciona explícitamente la convivencia entre aplicaciones de nueva generación basadas en GenAI y cargas legacy, un punto relevante porque muchas empresas españolas operan con una mezcla de sistemas heredados y servicios cloud‑native. En ese contexto, la seguridad “por defecto” que se menciona en el anuncio se interpreta menos como un eslogan y más como una aspiración operativa: que el endurecimiento y la verificación formen parte del camino estándar de despliegue, no de un proceso excepcional activado tras un incidente o una auditoría.Queda, aun así, una incógnita práctica: cómo se materializa la experiencia de uso para los equipos que ya operan NKP. La promesa de “innovar sin añadir complejidad” es habitual en este tipo de acuerdos, pero el impacto real suele depender de detalles como la integración con pipelines existentes, la gestión de excepciones cuando una imagen necesita componentes no previstos, o la forma en que se presentan los hallazgos de seguridad para que sean accionables y no se conviertan en otro flujo de alertas.Según el anuncio, las nuevas capacidades integradas estarán disponibles para los clientes de NKP a lo largo de este año. El calendario deja margen para ver hasta qué punto la integración se convierte en una función cotidiana del ciclo de vida de contenedores, especialmente en organizaciones donde la estandarización entre equipos y entornos sigue siendo, en realidad, el problema más difícil de resolver.]]></content:encoded><enclosure url="https://www.laecuaciondigital.com/wp-content/uploads/2024/11/141120242139-200x200.jpg"/><media:content url="https://www.laecuaciondigital.com/wp-content/uploads/2024/11/141120242139-200x200.jpg" width="200" height="200" type="image/jpeg"/><dc:dataset><_edit_lock><![CDATA[1775215765:1]]></_edit_lock><_edit_last><![CDATA[1]]></_edit_last><_thumbnail_id><![CDATA[46632]]></_thumbnail_id><post-primary-category><![CDATA[auto]]></post-primary-category><featured_image_override><![CDATA[off]]></featured_image_override><article_style_override><![CDATA[off]]></article_style_override><post_style><![CDATA[style1]]></post_style><post_gallery_style><![CDATA[lightbox]]></post_gallery_style><post_review><![CDATA[off]]></post_review><post_review_style><![CDATA[style1]]></post_review_style><post_review_average><![CDATA[50]]></post_review_average><executive_summary><![CDATA[La integración de RapidFort en Nutanix Kubernetes Platform automatiza seguridad de la cadena de suministro, reduce CVE y aporta trazabilidad de librerías en híbrido y edge.]]></executive_summary><_led_intencion_editorial><![CDATA[visibilidad_empresa]]></_led_intencion_editorial><_seopress_titles_title><![CDATA[Nutanix Kubernetes Platform integra seguridad de RapidFort]]></_seopress_titles_title><_seopress_titles_desc><![CDATA[La integración de RapidFort en Nutanix Kubernetes Platform automatiza seguridad de la cadena de suministro, reduce CVE y aporta trazabilidad de librerías en híbrido y edge.]]></_seopress_titles_desc><_seopress_robots_primary_cat><![CDATA[none]]></_seopress_robots_primary_cat><_seopress_redirections_type><![CDATA[301]]></_seopress_redirections_type><_seopress_redirections_logged_status><![CDATA[both]]></_seopress_redirections_logged_status><_seopress_analysis_target_kw><![CDATA[]]></_seopress_analysis_target_kw><BS_author_type><![CDATA[BS_author_is_user]]></BS_author_type><BS_guest_author_name><![CDATA[]]></BS_guest_author_name><BS_guest_author_url><![CDATA[]]></BS_guest_author_url><BS_guest_author_description><![CDATA[]]></BS_guest_author_description><BS_guest_author_image_id><![CDATA[]]></BS_guest_author_image_id><post_parent><![CDATA[0]]></post_parent><menu_order><![CDATA[0]]></menu_order></dc:dataset></item><item><title><![CDATA[MuleSoft Connect AI Madrid: datos y orquestación]]></title><link><![CDATA[https://www.laecuaciondigital.com/tecnologias/inteligencia-artificial/mulesoft-salesforce-connect-ai-madrid/]]></link><pubDate>Thu, 02 Apr 2026 19:34:45 +0000</pubDate><dc:creator>Redacción La Ecuación Digital</dc:creator><dc:identifier>69809</dc:identifier><dc:modified>2026-04-03 12:19:47</dc:modified><dc:created unix="1775162085">2026-04-02 20:34:45</dc:created><guid isPermaLink="true"><![CDATA[https://www.laecuaciondigital.com/tecnologias/inteligencia-artificial/mulesoft-salesforce-connect-ai-madrid/]]></guid><category>261</category><description><![CDATA[MuleSoft plantea una capa de contexto con gateway seguro y gobernanza unificada para que los agentes de IA operen sobre APIs con trazabilidad y control.]]></description><content:encoded><![CDATA[MuleSoft reunió en Madrid a directivos y responsables tecnológicos para poner el foco en un asunto que empieza a condicionar decisiones de arquitectura y gobierno del dato: cómo desplegar agentes de Inteligencia Artificial a gran escala sin que el ecosistema de aplicaciones se convierta en un conjunto de automatismos difíciles de controlar.El encuentro se planteó como una conversación sobre la llamada “empresa agéntica”, un modelo en el que agentes autónomos interactúan con sistemas corporativos y entre sí, apoyados en APIs y nuevos protocolos de IA.El evento, &nbsp;MuleSoft: Connect AI Madrid&nbsp;, congregó a cerca de un centenar de asistentes y combinó una parte de visión tecnológica con casos de uso presentados por clientes como Europ Assistance, Singular Bank, VM España Distribuciones y Group CTT. La tesis que vertebró la jornada fue que, a medida que los agentes ganan autonomía y frecuencia de interacción, la integración deja de ser un proyecto de conectividad y pasa a ser una disciplina de orquestación, trazabilidad y control de contexto.En ese marco, MuleSoft, la plataforma de integración de Salesforce, defendió la necesidad de construir una “capa de contexto” que permita extraer valor de datos dispersos y, sobre todo, reducir el riesgo de que los agentes operen con información incompleta, desactualizada o sin criterios homogéneos. La idea no es nueva en integración, pero cambia el énfasis: si antes el reto era mover datos entre sistemas, ahora se trata de asegurar que cada interacción automatizada, ya sea una consulta, una recomendación o una acción ejecutada por un agente, se produce con reglas claras, permisos consistentes y un entendimiento compartido de qué significa cada dato en el negocio.MuleSoft encuadró esa capa de contexto en dos piezas que suelen aparecer en las discusiones de gobierno: la puerta de enlace segura y la gobernanza unificada. En términos prácticos, la “puerta de enlace” se traduce en un punto de control para el tráfico de APIs, donde se pueden aplicar políticas de seguridad, autenticación y límites de uso. La “gobernanza unificada”, por su parte, apunta a mantener criterios comunes en cada interacción, algo que cobra peso cuando los agentes no solo consumen datos, sino que también desencadenan procesos y decisiones operativas.La jornada también incorporó un elemento de estrategia de portfolio: Salesforce ha reforzado su oferta con la adquisición de Informatica, según se destacó durante el evento, con el argumento de que esa operación ayuda a garantizar que los datos estén gobernados y enriquecidos con contexto específico del negocio. En el discurso de Connect AI, esa capa de gobierno y enriquecimiento aparece como condición previa para que la IA, y en particular los agentes, no se limiten a “leer” información, sino que puedan actuar sobre ella con garantías. Aunque el encuentro no detalló implementaciones concretas de esa integración entre productos, sí dejó claro el mensaje: la IA agéntica exige que integración y gestión del dato se entiendan como un continuo.Ricardo Usaola, MuleSoft RVP e Iberia Country Leader, situó el debate en una transición de época tecnológica, con un vocabulario que ya se está normalizando en los equipos de arquitectura: redes de APIs, protocolos de IA y agentes autónomos que se comunican de forma constante. “Estamos iniciando una nueva era ‘Agéntica’, donde los negocios operan sobre una red sofisticada de APIs, nuevos protocolos de IA y agentes autónomos que interactúan entre sí a cada segundo”, afirmó. En su intervención, vinculó la propuesta de MuleSoft con la necesidad de “ofrecer un nivel de gobernanza unificado” para sostener “una relación de total seguridad y confianza con los datos que gestionará la IA”, y resumió el objetivo como “convertir la complejidad en orden, para que la IA opere sobre cimientos sólidos”.Más allá de la formulación, el punto de fricción que subyace es conocido por cualquier organización con un parque de aplicaciones amplio: la fragmentación. Los agentes prometen automatizar tareas, coordinar flujos y responder en lenguaje natural, pero su eficacia depende de que puedan acceder a sistemas transaccionales, repositorios documentales y servicios internos sin multiplicar integraciones ad hoc. En contraste con enfoques más experimentales, el planteamiento de MuleSoft se apoya en una premisa clásica: estandarizar el acceso mediante APIs y controlar ese acceso con políticas centralizadas. Lo que cambia es la presión operativa, porque los agentes tienden a aumentar el volumen y la variedad de interacciones, y a hacerlo con menos intervención humana.En Connect AI Madrid, la agenda reservó un espacio relevante a los casos de éxito, presentados como ejemplos de adopción temprana. Europ Assistance, Singular Bank, Group CTT y VM España Distribuciones compartieron experiencias sobre cómo están incorporando agentes y cómo estos pueden coordinarse con aplicaciones y herramientas dentro del ecosistema empresarial. El evento no desglosó públicamente métricas, arquitecturas o cronogramas de despliegue, pero sí utilizó estos testimonios para ilustrar un patrón: la adopción de agentes no se limita a “añadir IA” a un proceso, sino que obliga a revisar cómo se conectan los sistemas, qué datos se exponen, con qué permisos y bajo qué reglas.Ese matiz suele pasar por alto en los debates más centrados en modelos y prompts. En un entorno corporativo, el problema rara vez es la falta de capacidad de generación de texto o de clasificación, sino la dificultad de ejecutar acciones de forma segura: consultar el estado de un expediente, abrir un caso, actualizar un registro, lanzar una orden o coordinar una cadena de aprobaciones. Para que un agente haga eso, necesita interfaces estables (APIs), un mapa de dependencias y, sobre todo, un marco de gobernanza que permita auditar qué hizo, cuándo y con qué datos. Connect AI insistió en esa dimensión de control, alineándola con la idea de “capa de contexto”.MuleSoft recordó además su trayectoria de más de 16 años y utilizó el evento para anticipar que anunciará próximamente productos en torno a la IA agéntica. No se concretaron nombres ni fechas en la información compartida, pero el mensaje apunta a una ampliación del catálogo hacia capacidades específicas para agentes, previsiblemente en torno a orquestación, observabilidad y políticas de interacción. En el mercado, ese tipo de funcionalidades se está convirtiendo en un diferenciador: no basta con conectar sistemas, también hay que gestionar el comportamiento de componentes autónomos que pueden encadenar llamadas, tomar decisiones y operar con distintos niveles de privilegio.El encuentro también sirvió para subrayar el papel del ecosistema de partners en este tipo de despliegues. La organización destacó el patrocinio de Deloitte, NTT Data, avvale, BD, Fluxaria, devoteam, inetum, omega CRM, disid, Capgemini e Indra Group. En la práctica, la presencia de consultoras e integradores suele reflejar una realidad operativa: la empresa agéntica, si se materializa, lo hará mediante proyectos que combinan integración, datos, seguridad, rediseño de procesos y cambio organizativo. Aunque el discurso se centre en agentes, el trabajo suele recaer en decisiones de arquitectura y gobierno que requieren coordinación entre áreas.Lo que deja Connect AI Madrid es una fotografía de cómo se está reordenando el debate empresarial sobre IA. Los agentes se presentan como la “próxima frontera”, pero el núcleo de la discusión vuelve a elementos estructurales: APIs, gobernanza, seguridad y calidad del dato. Pese al entusiasmo por la automatización, el reto para muchas organizaciones será evitar que la proliferación de agentes genere nuevas capas de complejidad, esta vez menos visibles porque se expresan en interacciones automáticas. La incógnita que queda abierta es qué ritmo de adopción impondrán los casos de uso reales y, sobre todo, qué estándares de control y auditoría se consolidarán cuando los agentes pasen de pilotos a operación continua.]]></content:encoded><enclosure url="https://www.laecuaciondigital.com/wp-content/uploads/2026/04/mulesoft-connect-ai-madrid-200x200.jpg"/><media:content url="https://www.laecuaciondigital.com/wp-content/uploads/2026/04/mulesoft-connect-ai-madrid-200x200.jpg" width="200" height="200" type="image/jpeg"/><dc:dataset><_edit_lock><![CDATA[1775215257:1]]></_edit_lock><_edit_last><![CDATA[1]]></_edit_last><_thumbnail_id><![CDATA[69853]]></_thumbnail_id><post-primary-category><![CDATA[auto]]></post-primary-category><featured_image_override><![CDATA[off]]></featured_image_override><article_style_override><![CDATA[off]]></article_style_override><post_style><![CDATA[style1]]></post_style><post_gallery_style><![CDATA[lightbox]]></post_gallery_style><post_review><![CDATA[off]]></post_review><post_review_style><![CDATA[style1]]></post_review_style><post_review_average><![CDATA[50]]></post_review_average><executive_summary><![CDATA[MuleSoft plantea una capa de contexto con gateway seguro y gobernanza unificada para que los agentes de IA operen sobre APIs con trazabilidad y control.]]></executive_summary><_led_intencion_editorial><![CDATA[visibilidad_empresa]]></_led_intencion_editorial><_seopress_titles_title><![CDATA[MuleSoft Connect AI Madrid: datos y orquestación]]></_seopress_titles_title><_seopress_titles_desc><![CDATA[MuleSoft plantea una capa de contexto con gateway seguro y gobernanza unificada para que los agentes de IA operen sobre APIs con trazabilidad y control.]]></_seopress_titles_desc><_seopress_robots_primary_cat><![CDATA[none]]></_seopress_robots_primary_cat><_seopress_redirections_type><![CDATA[301]]></_seopress_redirections_type><_seopress_redirections_logged_status><![CDATA[both]]></_seopress_redirections_logged_status><_seopress_analysis_target_kw><![CDATA[]]></_seopress_analysis_target_kw><BS_author_type><![CDATA[BS_author_is_user]]></BS_author_type><BS_guest_author_name><![CDATA[]]></BS_guest_author_name><BS_guest_author_url><![CDATA[]]></BS_guest_author_url><BS_guest_author_description><![CDATA[]]></BS_guest_author_description><BS_guest_author_image_id><![CDATA[]]></BS_guest_author_image_id><post_parent><![CDATA[0]]></post_parent><menu_order><![CDATA[0]]></menu_order></dc:dataset></item><item><title><![CDATA[Fujitsu acelera early-FTQC con arquitectura STAR v3]]></title><link><![CDATA[https://www.laecuaciondigital.com/tecnologias/soluciones-cuanticas/fujitsu-computacion-cuantica-early-ftqc/]]></link><pubDate>Thu, 02 Apr 2026 19:10:56 +0000</pubDate><dc:creator>Redacción La Ecuación Digital</dc:creator><dc:identifier>69808</dc:identifier><dc:modified>2026-04-03 12:10:52</dc:modified><dc:created unix="1775160656">2026-04-02 20:10:56</dc:created><guid isPermaLink="true"><![CDATA[https://www.laecuaciondigital.com/tecnologias/soluciones-cuanticas/fujitsu-computacion-cuantica-early-ftqc/]]></guid><category>729</category><description><![CDATA[Fujitsu y la Universidad de Osaka optimizan química cuántica con STAR v3: menos qubits y puertas, y tolerancia a mayor error físico en early-FTQC.]]></description><content:encoded><![CDATA[Fujitsu y el Centro de Información Cuántica y Biología Cuántica de la Universidad de Osaka han presentado una combinación de arquitectura y software que, según sus pruebas, recorta de forma drástica los recursos necesarios para llevar cálculos químicos complejos a una etapa temprana de computación cuántica tolerante a fallos, la llamada &nbsp;early-FTQC&nbsp;. El foco está en un problema muy concreto, pero con ramificaciones industriales amplias: estimar energías moleculares con precisión suficiente como para orientar el diseño de fármacos y materiales, un tipo de cálculo que hoy se atasca en los límites de memoria y tiempo de la computación clásica cuando las moléculas crecen y la química se vuelve “real”.El anuncio aterriza en dos piezas técnicas que se refuerzan entre sí: la arquitectura STAR en su versión 3 y una técnica de optimización de modelos moleculares aplicada durante la generación de circuitos cuánticos. La promesa no es menor. Hablan de pasar de escalas temporales “de milenios” con versiones anteriores a ventanas de días o semanas en un escenario early-FTQC, un terreno intermedio que, en la práctica, intenta extraer valor antes de que existan máquinas cuánticas plenamente tolerantes a fallos con millones de qubits.Press Briefing:New joint quantum project Ver este vídeo en YouTube.Para entender por qué este tipo de avance se mide en qubits, puertas y tasas de error conviene recordar el cuello de botella de la computación cuántica actual. Los qubits físicos, los elementos básicos de hardware, son frágiles: se descoheren y cometen errores. La tolerancia a fallos se apoya en corrección de errores, que “codifica” qubits lógicos robustos a partir de muchos qubits físicos. Ese salto multiplica recursos. Por eso, cuando se habla de aplicaciones prácticas, aparece a menudo la cifra de millones de qubits, no como un objetivo de marketing, sino como una consecuencia de la contabilidad de errores y de la profundidad de los circuitos necesarios.En ese marco, Fujitsu y Osaka llevan desde 2023 empujando STAR como una arquitectura orientada a reducir el coste de la tolerancia a fallos. La versión 1 se anunció el 23 de marzo de 2023 y la versión 2 el 28 de agosto de 2024. La idea central, según describen, es apoyarse en puertas de rotación de fase “altamente eficientes y únicas” frente a arquitecturas FTQC convencionales basadas en puertas T, un tipo de puerta lógica que suele ser cara en términos de corrección de errores y que, en muchos esquemas, domina el coste total del cómputo. STAR v2 ya había ampliado la escala de computación y se había presentado como un camino hacia cálculos early-FTQC en propiedades de materiales en estado sólido, por ejemplo superconductividad a altas temperaturas. Sin embargo, el salto a química molecular compleja seguía siendo prohibitivo.La versión 3, tal como la describen, introduce un matiz relevante: integra puertas de rotación de fase con puertas T lógicas y con ello eleva la precisión computacional en más de 10 veces respecto a STAR v2. En términos prácticos, esa mejora pretende permitir circuitos útiles con el mismo número de qubits y, además, relajar requisitos sobre la tasa de error de los qubits físicos. Es un punto delicado, porque la tasa de error es una de las variables que más condiciona el tamaño del “sobrecoste” de corrección de errores. Si el hardware tolera un error físico mayor sin disparar recursos, el umbral de entrada para ejecutar algoritmos largos se vuelve menos exigente.La segunda pieza es software, pero no en el sentido genérico de “optimización”. Se trata de una técnica de optimización de modelos moleculares pensada para usarse con STAR v3 durante la traducción de un modelo químico a un circuito cuántico. En química cuántica, el modelo de una molécula se expresa como una suma de términos (por ejemplo, en un Hamiltoniano), y muchos métodos intentan explotar que no todos los términos contribuyen igual al resultado. Fujitsu y Osaka describen que su técnica parte de enfoques que descomponen el modelo en múltiples términos y aplican selectivamente dos técnicas, evolución temporal y muestreo aleatorio, según la importancia de cada término. La novedad, según el comunicado, está en “reconfigurar” el modelo manteniendo la precisión de la aproximación, redistribuir la importancia de los términos y ajustar el equilibrio entre ambas técnicas para minimizar el número de puertas del circuito. En computación cuántica, menos puertas suele equivaler a menos tiempo y menos exposición al error, dos variables que se retroalimentan.La validación que presentan se apoya en tres casos de uso con nombres propios, elegidos por su relevancia industrial y por su dificultad computacional. Primero, el citocromo P450, una familia de enzimas oxidantes muy presente en metabolismo de fármacos y, por extensión, en etapas de descubrimiento y optimización de compuestos. Segundo, clústeres de hierro-azufre, motivos catalíticos que aparecen en proteínas implicadas en síntesis de amoníaco y metabolismo energético. Tercero, catalizadores de rutenio, habituales en química sintética. El mensaje de fondo es que no están midiendo sobre moléculas “de juguete”, sino sobre sistemas que, en su formulación precisa, empujan al límite a los métodos clásicos.Aquí aparece una tensión interesante. Por un lado, el comunicado afirma que “en la actualidad” los cálculos energéticos precisos de estas moléculas no son viables con ordenadores clásicos por limitaciones de memoria. Por otro, la industria química y farmacéutica lleva décadas usando aproximaciones clásicas (DFT, métodos post-Hartree-Fock, modelos híbridos) que sí producen resultados útiles, aunque con compromisos de precisión y escalabilidad. Lo que Fujitsu y Osaka están poniendo sobre la mesa es el acceso, al menos en teoría, a un régimen de precisión y tamaño que esos métodos no alcanzan de forma general, especialmente cuando se busca capturar correlación electrónica fuerte en sistemas grandes. El matiz importa: no se trata de sustituir el flujo de trabajo clásico de mañana, sino de abrir una vía para problemas donde el coste de la aproximación se vuelve un freno.En números, la arquitectura STAR v3 reduciría el número de qubits necesarios para estos cálculos a entre 1/15 y 1/80 frente a arquitecturas FTQC convencionales. La horquilla es amplia, lo que sugiere que el beneficio depende del tipo de molécula y del circuito resultante, algo habitual en optimización cuántica. Además, afirman que los cálculos serían viables en ordenadores cuánticos early-FTQC incluso si la tasa de error físico de los qubits se relaja del 0,01% al 0,10%. Ese salto de un orden de magnitud es relevante porque muchas plataformas de hardware compiten precisamente por bajar el error físico, y no todas avanzan al mismo ritmo.El otro indicador es el tiempo. La optimización de modelos moleculares reduciría el tiempo de cálculo en tres órdenes de magnitud respecto a no usarla. Con esa técnica, Fujitsu y Osaka sitúan los tiempos en torno a 35 días con una tasa de error del 0,10% y alrededor de 10 días con una tasa del 0,01%. Son cifras que, aun siendo largas para un ciclo de diseño iterativo, entran en un rango que algunas organizaciones podrían considerar “operable” si el resultado aporta una señal diferencial, por ejemplo para seleccionar candidatos o descartar rutas sintéticas. Aunque a menudo se pasa por alto, en I+D industrial el tiempo de cómputo no se evalúa solo en horas, sino en coste de oportunidad y en capacidad de reducir experimentación física.El concepto early-FTQC funciona aquí como un puente estratégico. La computación cuántica tolerante a fallos “plena” sigue asociada a máquinas grandes y caras, y su calendario es incierto. En cambio, una etapa temprana tolerante a fallos intenta capturar valor con menos qubits lógicos, circuitos optimizados y supuestos realistas sobre error. Eso no elimina la complejidad de la corrección de errores, pero desplaza el umbral de entrada. En contraste con la narrativa de “esperar a la máquina perfecta”, este tipo de trabajo se centra en ingeniería de recursos: qué se puede ejecutar antes, con qué precisión y bajo qué condiciones.Fujitsu y la Universidad de Osaka señalan como siguiente paso continuar avanzando en STAR y en la optimización de modelos moleculares, ampliando el rango de aplicaciones prácticas en la era early-FTQC. Mencionan descubrimiento de fármacos, nuevos materiales y finanzas, un trío habitual en la agenda cuántica corporativa. La diferencia, en este caso, es que el comunicado aporta métricas de qubits, tasas de error y tiempos, que permiten discutir viabilidad con algo más de granularidad.Queda, aun así, una incógnita que condiciona la lectura empresarial: la distancia entre una validación de recursos y una ejecución real en hardware. El comunicado habla de viabilidad en early-FTQC, pero el mercado todavía está construyendo máquinas capaces de sostener qubits lógicos estables con circuitos largos y con tasas de error efectivas compatibles con química de alta precisión. Fujitsu apunta a dos palancas para acortar tiempos en el futuro, reducir aún más el error físico y paralelizar con múltiples sistemas cuánticos. Si esa paralelización se materializa, el debate pasará de “si se puede” a “cuánto cuesta por cálculo” y “qué parte del pipeline de I+D merece ese coste”. Ahí es donde la computación cuántica, por fin, suele dejar de ser un laboratorio y empieza a parecerse a una decisión de inversión.]]></content:encoded><enclosure url="https://www.laecuaciondigital.com/wp-content/uploads/2025/08/fujitsu-quantum-omputer-200x200.jpg"/><media:content url="https://www.laecuaciondigital.com/wp-content/uploads/2025/08/fujitsu-quantum-omputer-200x200.jpg" width="200" height="200" type="image/jpeg"/><dc:dataset><_edit_lock><![CDATA[1775214725:1]]></_edit_lock><_oembed_060498d20572c90b47ca0c48758e02b3><![CDATA[<iframe title="Press Briefing:New joint quantum project" width="706" height="397" src="https://www.youtube.com/embed/OO_Gxe6dNNw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>]]></_oembed_060498d20572c90b47ca0c48758e02b3><_oembed_time_060498d20572c90b47ca0c48758e02b3><![CDATA[1775214587]]></_oembed_time_060498d20572c90b47ca0c48758e02b3><_edit_last><![CDATA[1]]></_edit_last><_thumbnail_id><![CDATA[57815]]></_thumbnail_id><post-primary-category><![CDATA[auto]]></post-primary-category><featured_image_override><![CDATA[off]]></featured_image_override><article_style_override><![CDATA[off]]></article_style_override><post_style><![CDATA[style1]]></post_style><post_gallery_style><![CDATA[lightbox]]></post_gallery_style><post_review><![CDATA[off]]></post_review><post_review_style><![CDATA[style1]]></post_review_style><post_review_average><![CDATA[50]]></post_review_average><executive_summary><![CDATA[Fujitsu y la Universidad de Osaka optimizan química cuántica con STAR v3: menos qubits y puertas, y tolerancia a mayor error físico en early-FTQC.]]></executive_summary><_led_intencion_editorial><![CDATA[visibilidad_empresa]]></_led_intencion_editorial><_seopress_titles_title><![CDATA[Fujitsu acelera early-FTQC con arquitectura STAR v3]]></_seopress_titles_title><_seopress_titles_desc><![CDATA[Fujitsu y la Universidad de Osaka optimizan química cuántica con STAR v3: menos qubits y puertas, y tolerancia a mayor error físico en early-FTQC.]]></_seopress_titles_desc><_seopress_robots_primary_cat><![CDATA[none]]></_seopress_robots_primary_cat><_seopress_redirections_type><![CDATA[301]]></_seopress_redirections_type><_seopress_redirections_logged_status><![CDATA[both]]></_seopress_redirections_logged_status><_seopress_analysis_target_kw><![CDATA[]]></_seopress_analysis_target_kw><BS_author_type><![CDATA[BS_author_is_user]]></BS_author_type><BS_guest_author_name><![CDATA[]]></BS_guest_author_name><BS_guest_author_url><![CDATA[]]></BS_guest_author_url><BS_guest_author_description><![CDATA[]]></BS_guest_author_description><BS_guest_author_image_id><![CDATA[]]></BS_guest_author_image_id><_oembed_00cfd48ef9e0ee651dcd49820cadf219><![CDATA[<iframe title="Press Briefing:New joint quantum project" width="1170" height="658" src="https://www.youtube.com/embed/OO_Gxe6dNNw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>]]></_oembed_00cfd48ef9e0ee651dcd49820cadf219><_oembed_time_00cfd48ef9e0ee651dcd49820cadf219><![CDATA[1775214669]]></_oembed_time_00cfd48ef9e0ee651dcd49820cadf219><_video_thumbnail><![CDATA[https://www.laecuaciondigital.com/wp-content/uploads/2026/04/fujitsu-acelera-early-ftqc-con-a.jpg]]></_video_thumbnail><_lyte_OO_Gxe6dNNw><![CDATA[eJydkL1Ow0AQhF9l5YIqsZ0jjpHpKIAmCYjQIEvRxreOLzrfOed1foR4d+5IGgoa2pnd0TfzGbFiTVERvTjqe3hwimpltsWCjrCzyjDsBzQ8tNA5u6OKo1HEzdBu3p32Xw1z1xdlUiYqPrNqt3Fl2zI5qDJZLtdPJ5rJxeJYJs1eUo2D5njXbX3E8+s/Qlo8ecjfQRKZHhVp6XNEKmbj9HYsslV6V2RpkWUf4WRwyMqaUHIl8vlUvAWV+sqp7moszVhSi0bCQUmyYGvghnznMMrmOgpYAzf7wfL9n+tc7HA4R1c1IDJuRhDAQPVg7BHwgErjRlPsISr8AejXvgZ6jBp1T17XZ6ag0RqlJN9tkueZmEzzNP36BtXKkpM=]]></_lyte_OO_Gxe6dNNw><_oembed_8696004f86920f9458787a2b048aaec6><![CDATA[<iframe title="Press Briefing:New joint quantum project" width="710" height="399" src="https://www.youtube.com/embed/OO_Gxe6dNNw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>]]></_oembed_8696004f86920f9458787a2b048aaec6><_oembed_time_8696004f86920f9458787a2b048aaec6><![CDATA[1775214701]]></_oembed_time_8696004f86920f9458787a2b048aaec6><post_parent><![CDATA[0]]></post_parent><menu_order><![CDATA[0]]></menu_order></dc:dataset></item><item><title><![CDATA[SEIDOR logra Cisco Preferred Partner en networking y security]]></title><link><![CDATA[https://www.laecuaciondigital.com/actualidad/seidor-cisco-partner-networking-security/]]></link><pubDate>Thu, 02 Apr 2026 18:56:40 +0000</pubDate><dc:creator>Redacción La Ecuación Digital</dc:creator><dc:identifier>69803</dc:identifier><dc:modified>2026-04-02 20:06:30</dc:modified><dc:created unix="1775159800">2026-04-02 19:56:40</dc:created><guid isPermaLink="true"><![CDATA[https://www.laecuaciondigital.com/actualidad/seidor-cisco-partner-networking-security/]]></guid><category>25</category><description><![CDATA[La certificación Cisco Preferred Partner valida capacidades de SEIDOR en networking y security para SD-WAN, Zero Trust y SASE en entornos híbridos y distribuidos.]]></description><content:encoded><![CDATA[SEIDOR ha obtenido la certificación Cisco Preferred Partner en Networking y Security, el nivel más alto dentro de estas categorías del programa global de partners de Cisco. El movimiento sitúa a la consultora en un escalón de acreditación reservado a compañías que, según el fabricante, cumplen requisitos técnicos y operativos especialmente exigentes, y llega en un momento en el que muchas organizaciones españolas están revisando su conectividad y su postura de seguridad para adaptarse a entornos híbridos y cada vez más distribuidos.El anuncio vincula la acreditación a tres elementos: especialización técnica, experiencia en proyectos complejos de infraestructuras de red y ciberseguridad, y cumplimiento de los estándares definidos por Cisco. En la práctica, este tipo de certificaciones suele funcionar como un indicador de capacidad para diseñar, desplegar y operar tecnologías del fabricante con un nivel de consistencia que Cisco considera alineado con sus mejores prácticas, aunque el valor real para el cliente depende, como casi siempre, de cómo se traduzca en proyectos concretos, equipos asignados y gobierno del servicio.La palabra clave aquí es “alta complejidad”. En redes corporativas, la complejidad ya no se explica solo por el tamaño, sino por la mezcla de sedes, usuarios remotos, aplicaciones en la nube, cargas en centros de datos propios y requisitos de continuidad. SEIDOR enmarca esta ampliación de capacidades en ámbitos como conectividad empresarial, SD-WAN, entornos de data center y arquitecturas multicloud. Son dominios donde el diseño no se limita a “conectar”, sino a decidir cómo se enruta el tráfico, qué se prioriza, qué se segmenta y qué se inspecciona, con impacto directo en latencia, disponibilidad y exposición al riesgo.En el terreno de SD-WAN, por ejemplo, el interés empresarial suele estar en reducir dependencia de enlaces tradicionales, ganar flexibilidad para abrir sedes o integrar adquisiciones y, al mismo tiempo, mantener control sobre rendimiento y seguridad. Sin embargo, esa promesa se complica cuando conviven aplicaciones críticas, servicios SaaS y políticas de cumplimiento que exigen trazabilidad. Ahí es donde la experiencia en despliegues complejos, que SEIDOR cita como parte del reconocimiento, se convierte en un factor diferencial, al menos sobre el papel.La acreditación también se apoya en la categoría de Security, donde SEIDOR afirma reforzar su propuesta con “modelos de protección integral” basados en enfoques como Zero Trust, seguridad perimetral, arquitecturas SASE y defensa avanzada frente a amenazas. Zero Trust, en términos operativos, suele implicar que la confianza no se concede por estar “dentro” de la red, sino que se verifica de forma continua en función de identidad, contexto y políticas. Es un cambio relevante porque desplaza el foco desde el perímetro clásico hacia el control de acceso y la segmentación, algo especialmente útil cuando el perímetro se difumina por el teletrabajo, la movilidad y el uso intensivo de servicios cloud.SASE, por su parte, tiende a agrupar capacidades de red y seguridad entregadas como servicio, con el objetivo de acercar controles (como inspección de tráfico o políticas de acceso) al usuario y a la aplicación, no solo a la sede central. En entornos distribuidos, esa aproximación puede simplificar la operación y mejorar la experiencia, aunque también introduce dependencias nuevas, por ejemplo en la calidad del proveedor de servicio y en la integración con identidades y herramientas existentes. Que SEIDOR lo incluya en su discurso sugiere una orientación hacia arquitecturas donde conectividad y seguridad se diseñan de forma conjunta, un punto que muchas organizaciones aún tratan como dos proyectos separados.Joseph Michell, director de las unidades de negocio de Ciberseguridad y Redes en SEIDOR, vincula la certificación con la capacidad de “seguir acompañando a las empresas en el diseño de entornos tecnológicos más seguros, resilientes y preparados para responder a los retos del entorno digital”. La formulación apunta a un posicionamiento de continuidad, más que a un giro estratégico: la certificación actúa como validación externa de una línea de trabajo ya existente, y como argumento comercial para competir en proyectos donde el cliente exige acreditaciones específicas del fabricante.En el mercado español, este tipo de credenciales suele pesar en licitaciones y procesos de compra corporativos, sobre todo cuando se trata de infraestructuras críticas. No es solo una cuestión de marketing. En muchos pliegos, las certificaciones de partner funcionan como filtro inicial para asegurar que el proveedor tiene acceso a soporte avanzado, formación y recursos del fabricante, además de un historial verificable de implantaciones. Aun así, existe una tensión habitual: la acreditación puede garantizar un umbral de capacidades, pero no elimina el riesgo de ejecuciones irregulares si el proyecto se apoya en subcontratación, rotación de equipos o un alcance mal definido.SEIDOR subraya que el paso “impulsa el desarrollo de arquitecturas de red resilientes y estrategias avanzadas de ciberseguridad para entornos híbridos y distribuidos”. La resiliencia, en redes y seguridad, suele traducirse en redundancia, segmentación, capacidad de recuperación y observabilidad. Y aquí aparece un matiz importante: muchas empresas han invertido en herramientas, pero siguen teniendo dificultades para operar de forma coherente, correlacionar eventos y priorizar acciones. Cuando un integrador habla de resiliencia, el reto no está solo en desplegar tecnología, sino en diseñar procesos, definir responsabilidades y asegurar que los controles se mantienen con el tiempo.La compañía también menciona “defensa avanzada frente a amenazas”. En el lenguaje de ciberseguridad, esa defensa suele incluir detección y respuesta, automatización de ciertas acciones y, en general, una postura más proactiva frente a ataques que ya no se limitan al malware tradicional. Sin embargo, la eficacia de estas aproximaciones depende de la calidad de telemetría, de la integración entre capas (endpoint, red, identidad, nube) y de la capacidad de respuesta del equipo. La certificación de Cisco puede facilitar el acceso a arquitecturas y herramientas del ecosistema del fabricante, aunque el valor final se medirá en tiempos de detección, contención y recuperación, no en el número de componentes desplegados.Otro punto que SEIDOR destaca es la combinación de “infraestructura, seguridad y visión de negocio” para mejorar la protección de sistemas críticos. En organizaciones medianas y grandes, esa combinación suele ser el punto de fricción: redes busca estabilidad y rendimiento, seguridad busca control y reducción de superficie de ataque, y negocio presiona por velocidad de despliegue. Cuando el proveedor es capaz de diseñar con esas tensiones en mente, se reducen los rediseños y los parches posteriores. Aunque, en contraste, cuando se prioriza la rapidez sin gobierno, la deuda técnica aparece pronto, especialmente en entornos multicloud donde cada plataforma introduce sus propios modelos de red y seguridad.La colaboración con Cisco aparece como un eje adicional. SEIDOR plantea que la certificación refuerza el trabajo conjunto para “impulsar la modernización de las infraestructuras tecnológicas” y facilitar modelos “más seguros, conectados y preparados” para el contexto actual. En términos de mercado, la modernización suele implicar migraciones graduales, adopción de servicios gestionados y una mayor estandarización, algo que beneficia tanto a clientes (por simplificación) como a fabricantes (por consolidación de plataforma). El equilibrio, sin embargo, no siempre es sencillo: la estandarización puede chocar con legados críticos o con decisiones previas de arquitectura que no se pueden revertir sin impacto.SEIDOR aporta, además, datos corporativos que ayudan a dimensionar su capacidad de ejecución: facturación de 1.125 millones de euros en 2024, más de 10.000 profesionales y presencia directa en 45 países. Para clientes con operaciones internacionales o con necesidades de soporte extendido, esa huella puede ser relevante, sobre todo si se traduce en disponibilidad de perfiles especializados y en continuidad operativa. Aun así, el tamaño no garantiza especialización en todos los frentes, y por eso las certificaciones por dominio, como las de Cisco en Networking y Security, se utilizan para acotar capacidades concretas.A partir de aquí, la incógnita se desplaza hacia el tipo de proyectos que SEIDOR intentará capitalizar con esta acreditación. Es razonable esperar más foco en redes para entornos híbridos, despliegues SD-WAN, modernización de data center y programas de seguridad alineados con Zero Trust y SASE, especialmente en compañías que están reordenando su arquitectura tras años de crecimiento desordenado de herramientas y proveedores. El mercado, mientras tanto, seguirá poniendo a prueba una idea sencilla pero difícil de ejecutar: que conectividad y seguridad se diseñen como una misma conversación, sin que una llegue siempre tarde a la otra.]]></content:encoded><enclosure url="https://www.laecuaciondigital.com/wp-content/uploads/2026/04/seidor-200x200.jpg"/><media:content url="https://www.laecuaciondigital.com/wp-content/uploads/2026/04/seidor-200x200.jpg" width="200" height="200" type="image/jpeg"/><dc:dataset><_edit_lock><![CDATA[1775158510:1]]></_edit_lock><_edit_last><![CDATA[1]]></_edit_last><_thumbnail_id><![CDATA[69805]]></_thumbnail_id><post-primary-category><![CDATA[auto]]></post-primary-category><featured_image_override><![CDATA[off]]></featured_image_override><article_style_override><![CDATA[off]]></article_style_override><post_style><![CDATA[style1]]></post_style><post_gallery_style><![CDATA[lightbox]]></post_gallery_style><post_review><![CDATA[off]]></post_review><post_review_style><![CDATA[style1]]></post_review_style><post_review_average><![CDATA[50]]></post_review_average><executive_summary><![CDATA[La certificación Cisco Preferred Partner valida capacidades de SEIDOR en networking y security para SD-WAN, Zero Trust y SASE en entornos híbridos y distribuidos.]]></executive_summary><_led_intencion_editorial><![CDATA[visibilidad_empresa]]></_led_intencion_editorial><_seopress_titles_title><![CDATA[SEIDOR logra Cisco Preferred Partner en networking y security]]></_seopress_titles_title><_seopress_titles_desc><![CDATA[La certificación Cisco Preferred Partner valida capacidades de SEIDOR en networking y security para SD-WAN, Zero Trust y SASE en entornos híbridos y distribuidos.]]></_seopress_titles_desc><_seopress_robots_primary_cat><![CDATA[none]]></_seopress_robots_primary_cat><_seopress_redirections_type><![CDATA[301]]></_seopress_redirections_type><_seopress_redirections_logged_status><![CDATA[both]]></_seopress_redirections_logged_status><_seopress_analysis_target_kw><![CDATA[]]></_seopress_analysis_target_kw><BS_author_type><![CDATA[BS_author_is_user]]></BS_author_type><BS_guest_author_name><![CDATA[]]></BS_guest_author_name><BS_guest_author_url><![CDATA[]]></BS_guest_author_url><BS_guest_author_description><![CDATA[]]></BS_guest_author_description><BS_guest_author_image_id><![CDATA[]]></BS_guest_author_image_id><post_parent><![CDATA[0]]></post_parent><menu_order><![CDATA[0]]></menu_order></dc:dataset></item><item><title><![CDATA[Gemma 4 de Google: potencia de razonamiento en modelos abiertos]]></title><link><![CDATA[https://www.laecuaciondigital.com/tecnologias/inteligencia-artificial/gemma-4-google-modelos-abiertos-ia/]]></link><pubDate>Thu, 02 Apr 2026 17:46:29 +0000</pubDate><dc:creator>Hernán Rodríguez</dc:creator><dc:identifier>69796</dc:identifier><dc:modified>2026-04-02 18:46:29</dc:modified><dc:created unix="1775155589">2026-04-02 18:46:29</dc:created><guid isPermaLink="true"><![CDATA[https://www.laecuaciondigital.com/tecnologias/inteligencia-artificial/gemma-4-google-modelos-abiertos-ia/]]></guid><category>261</category><category>1357</category><description><![CDATA[Google lanza Gemma 4, una nueva familia de modelos abiertos optimizados para flujos de trabajo agénticos y razonamiento avanzado con licencia Apache 2.0.]]></description><content:encoded><![CDATA[La arquitectura de la inteligencia artificial abierta acaba de desplazarse hacia una nueva frontera de eficiencia con el lanzamiento de Gemma 4. Desarrollada bajo la misma base tecnológica de Gemini 3, esta familia de modelos abiertos se presenta como una respuesta a la demanda de los desarrolladores de disponer de capacidades de razonamiento profundo sin la dependencia absoluta de infraestructuras propietarias.Google ha estructurado esta propuesta bajo una licencia Apache 2.0, lo que plantea un escenario de soberanía digital relevante para las empresas que buscan control total sobre sus datos y procesos. ¿Es posible alcanzar niveles de inteligencia de vanguardia reduciendo drásticamente el número de parámetros necesarios?What’s new in Gemma 4 Ver este vídeo en YouTube.La respuesta que propone Gemma 4 se sustenta en una métrica que la compañía denomina inteligencia por parámetro. La familia se despliega en cuatro tamaños: Effective 2B (E2B), Effective 4B (E4B), una versión de 26B con arquitectura de Mezcla de Expertos (MoE) y una variante densa de 31B. Este último modelo ya ocupa la tercera posición en la clasificación global de modelos abiertos del Arena AI text leaderboard, superando en rendimiento a sistemas que le multiplican por veinte en volumen de parámetros. Para un directivo tecnológico, esta asimetría entre tamaño y capacidad representa una reducción sustancial en los costes operativos de hardware y una menor latencia en la ejecución de tareas críticas.En el contexto de la computación en el borde o edge computing, los modelos E2B y E4B están diseñados para operar de forma nativa en dispositivos móviles e IoT. Google indica que estos modelos priorizan la multimodalidad y el procesamiento de baja latencia sobre el conteo bruto de parámetros, permitiendo que funciones de visión y audio funcionen sin conexión a la red en dispositivos como teléfonos Android o hardware de fabricantes como Qualcomm y MediaTek. Esta capacidad de ejecución local elimina las fricciones de privacidad y conectividad que suelen limitar el despliegue de IA en entornos industriales o de consumo masivo.Sin embargo, el verdadero salto estratégico se observa en su orientación hacia los flujos de trabajo agénticos. Gemma 4 no se limita a la generación de texto; incluye soporte nativo para llamadas a funciones, salida estructurada en JSON e instrucciones de sistema. Estas herramientas permiten construir agentes autónomos capaces de interactuar con APIs externas y ejecutar secuencias de pasos lógicos de manera fiable. Richard Seroter, evangelista jefe de Google Cloud, sostiene que la IA empresarial requiere modelos que ejecuten lógica compleja manteniendo los datos dentro de límites seguros, un equilibrio que esta nueva familia intenta resolver mediante su despliegue en entornos controlados.La versatilidad de la arquitectura permite que el modelo de 26B MoE active únicamente 3,8 mil millones de sus parámetros durante la inferencia, lo que optimiza la velocidad de respuesta (tokens por segundo). En contraste, el modelo denso de 31B se posiciona como la opción predilecta para tareas de ajuste fino (fine-tuning) donde la calidad bruta y la coherencia en tareas complejas de orquestación empresarial son la prioridad. Esta dualidad ofrece a los arquitectos de sistemas la posibilidad de elegir entre velocidad de ejecución o profundidad de análisis según el caso de uso.Integración y soberanía en la nubeEl despliegue de Gemma 4 en Google Cloud introduce capas de gestión que buscan atraer a sectores regulados. A través de Vertex AI, las organizaciones pueden provisionar recursos de cómputo específicos, manteniendo el control directo sobre la infraestructura de servicio. Existe, además, una integración con GKE (Google Kubernetes Engine) que permite el escalado dinámico de las cargas de trabajo de inferencia. Para equipos que requieren un aislamiento total, el modelo estará disponible en soluciones de Nube Soberana, incluyendo implementaciones air-gapped o en premisas, lo que responde a las crecientes normativas de residencia de datos en Europa.Un aspecto técnico diferencial es la ampliación de la ventana de contexto. Mientras que los modelos para dispositivos móviles ofrecen 128K, las variantes mayores alcanzan los 256K. Esta capacidad permite procesar repositorios completos de código o documentos extensos en una sola consulta, una función vital para la generación de código offline y el soporte técnico automatizado. Pese a estas capacidades, la implementación efectiva de tales sistemas sigue dependiendo de la optimización del hardware; Google ha confirmado que los pesos de bfloat16 de los modelos grandes pueden ejecutarse de manera eficiente en una única GPU NVIDIA H100 de 80GB, lo que democratiza el acceso a la alta computación para empresas de tamaño medio.La flexibilidad que otorga la licencia Apache 2.0 es, quizá, el movimiento más significativo para el ecosistema. Al eliminar las barreras restrictivas de uso comercial, Google fomenta la creación de variantes locales, como ya ocurrió con BgGPT en Bulgaria o aplicaciones de terapia contra el cáncer en la Universidad de Yale con versiones anteriores. La empresa busca que Gemma 4 se convierta en la base de un «Gemmaverse» que ya cuenta con más de 100.000 variantes desarrolladas por la comunidad.La infraestructura de soporte se completa con el Agent Development Kit (ADK), un marco modular para el desarrollo de agentes, y la posibilidad de ejecutar modelos en Cloud Run utilizando GPUs NVIDIA RTX PRO 6000 (Blackwell). Este enfoque de pago por uso en GPUs serverless reduce la barrera de entrada para experimentos de alta intensidad sin comprometer grandes inversiones iniciales. En este sentido, la capacidad de los modelos para razonar en más de 140 idiomas de forma nativa amplía el radio de acción para compañías con operaciones globales que necesitan aplicaciones inclusivas y de alto rendimiento.El cierre de este despliegue tecnológico plantea una tensión operativa para los departamentos de IT: la elección entre modelos propietarios cerrados, con su facilidad de uso pero menor control, frente a modelos abiertos como Gemma 4, que exigen una gestión más activa de la infraestructura a cambio de una soberanía total y una optimización de costes a largo plazo. La competitividad futura de las empresas españolas en el ámbito de la IA podría depender de su capacidad para integrar estas herramientas de código abierto en sus flujos de producción más sensibles.]]></content:encoded><enclosure url="https://www.laecuaciondigital.com/wp-content/uploads/2026/04/google-gemma-4-google-cloud-200x200.jpg"/><media:content url="https://www.laecuaciondigital.com/wp-content/uploads/2026/04/google-gemma-4-google-cloud-200x200.jpg" width="200" height="200" type="image/jpeg"/><dc:dataset><_edit_lock><![CDATA[1775213821:1]]></_edit_lock><_edit_last><![CDATA[1]]></_edit_last><_oembed_c5666f06747ba9a58cb55629d7dfd820><![CDATA[<iframe title="What’s new in Gemma 4" width="706" height="397" src="https://www.youtube.com/embed/jZVBoFOJK-Q?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>]]></_oembed_c5666f06747ba9a58cb55629d7dfd820><_oembed_time_c5666f06747ba9a58cb55629d7dfd820><![CDATA[1775151879]]></_oembed_time_c5666f06747ba9a58cb55629d7dfd820><_thumbnail_id><![CDATA[69799]]></_thumbnail_id><post-primary-category><![CDATA[auto]]></post-primary-category><featured_image_override><![CDATA[off]]></featured_image_override><article_style_override><![CDATA[off]]></article_style_override><post_style><![CDATA[style1]]></post_style><post_gallery_style><![CDATA[lightbox]]></post_gallery_style><post_review><![CDATA[off]]></post_review><post_review_style><![CDATA[style1]]></post_review_style><post_review_average><![CDATA[50]]></post_review_average><executive_summary><![CDATA[Google lanza Gemma 4, una nueva familia de modelos abiertos optimizados para flujos de trabajo agénticos y razonamiento avanzado con licencia Apache 2.0.]]></executive_summary><_led_intencion_editorial><![CDATA[visibilidad_empresa]]></_led_intencion_editorial><_seopress_titles_title><![CDATA[Gemma 4 de Google: potencia de razonamiento en modelos abiertos]]></_seopress_titles_title><_seopress_titles_desc><![CDATA[Google lanza Gemma 4, una nueva familia de modelos abiertos optimizados para flujos de trabajo agénticos y razonamiento avanzado con licencia Apache 2.0.]]></_seopress_titles_desc><_seopress_robots_primary_cat><![CDATA[none]]></_seopress_robots_primary_cat><_seopress_redirections_type><![CDATA[301]]></_seopress_redirections_type><_seopress_redirections_logged_status><![CDATA[both]]></_seopress_redirections_logged_status><_seopress_analysis_target_kw><![CDATA[]]></_seopress_analysis_target_kw><BS_author_type><![CDATA[BS_author_is_user]]></BS_author_type><BS_guest_author_name><![CDATA[]]></BS_guest_author_name><BS_guest_author_url><![CDATA[]]></BS_guest_author_url><BS_guest_author_description><![CDATA[]]></BS_guest_author_description><BS_guest_author_image_id><![CDATA[]]></BS_guest_author_image_id><_oembed_2a26195c0d52dce902888c2ac1beeef1><![CDATA[<iframe title="What’s new in Gemma 4" width="1170" height="658" src="https://www.youtube.com/embed/jZVBoFOJK-Q?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>]]></_oembed_2a26195c0d52dce902888c2ac1beeef1><_oembed_time_2a26195c0d52dce902888c2ac1beeef1><![CDATA[1775151991]]></_oembed_time_2a26195c0d52dce902888c2ac1beeef1><_video_thumbnail><![CDATA[https://www.laecuaciondigital.com/wp-content/uploads/2026/04/gemma-4-de-google-potencia-de-ra.jpg]]></_video_thumbnail><_oembed_d47a6c75306022d69bcad3206f9530cc><![CDATA[<iframe title="What’s new in Gemma 4" width="710" height="399" src="https://www.youtube.com/embed/jZVBoFOJK-Q?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>]]></_oembed_d47a6c75306022d69bcad3206f9530cc><_oembed_time_d47a6c75306022d69bcad3206f9530cc><![CDATA[1775152022]]></_oembed_time_d47a6c75306022d69bcad3206f9530cc><_lyte_jZVBoFOJK-Q><![CDATA[eJydU11r20AQ/CuLn1qwZFt1EqK3lpD0yySp0waCIJx0a+mS0+31PuyY0v/ePcVOWtpS6INALLOzM7tz30ZBBY2jcnTdiVDFYjo79mBwA8rAGfa9gPloPApd7OvPTjOuC8H6sppUE5Vvg+rbvKG+mqxVNbm7+fKGTs/ff8guq0n3VeJKRB3yO9syxdvL/yDpxYND/yuRFAFPFWrJPMW0OMym82xaXM0Oy+lhWcxvEiQ6ERQZRlxcFYuDYpmK6Bun7K6+QAx7g2Og6KAnH9h1QK1ViyYAWTRclag9BII0N4eL6Cx5zOqodIAVORByLUyDEhwKT0aZFoSRIBKHamBD7n6laePH+3HAjGqNzjMOorEOuZvBTKFxjRpo9ZOOBjOLLrPCiR4DuhzeGQid8rBWEmkM50ym0MFHwTusEV6cOYoWLhzJ2ARYCMNSHE8najXCCaJdKCNfphkDBtleh0/qBsewEr3S2xyuEYT2BL6jTSM8Qs+XUJaJJPLGktZ9Y43Je/TsQzSOPPuDDWuEtXAKwzZhO+HkRjgcw8pRz7NqxVS8XS1sIOtz+ISer8GiSnhtDEXTJNb9DE7o7LiA5/y0RDnb4p+EyObPS6Ym9rzVIQj/7ssY73fNDdF9zd8fuhSHuH4MazvsMxv6q8lTzzLWKWf14Gq38xSTk3RajhSf/e9i5DNoaVHcoyt/u+/usB4WKWBkUJaPujnjjRjy7W85rIJTHlxELuttwFTCWyEl8sOZHR0dzA749bz6/gOizGNZ]]></_lyte_jZVBoFOJK-Q><post_parent><![CDATA[0]]></post_parent><menu_order><![CDATA[0]]></menu_order></dc:dataset></item></channel></rss>
