Frank Modruson, CIO de Accenture:

"La seguridad es un tema de escala"

El máximo responsable de tecnología en la consultora a nivel global cuenta en exclusiva la estrategia de la compañía que factura u$s 23.000 millones en todo el mundo para alcanzar en pocos años un nivel de virtualización mayor al 65% en servidores y aprovechar la oferta de la nube.

El ejemplo empieza por casa dice una vieja regla. Frank Modruson, CIO de la consultora Accenture a nivel global, y su equipo, se tomaron al consejo al pie de la letra. Hace cinco años proyectaron a la compañía que con 214.000 empleados y una facturación que superó el año pasado u$s 23.000 millones es hoy una de las principales del mercado de servicios IT y gestión en un viaje que tiene como destino final la total virtualización de su estructura y el trabajo en la nube. En el marco de una visita relámpago a la Argentina, Modruson contó a IT Business, en qué estado está la operación, cuáles fueron los mayores desafíos y por qué el camino a la nube más que un sueño es un viaje sin retorno.

¿Qué balance hace de los primeros cinco años de la implementación a la hora de llevar su estructura a una dimensión totalmente virtualizada?
Nosotros lo que buscamos fue poder aprovechar las oportunidades que ofrece esta tecnología para reducir los costos de todas nuestras operaciones a nivel global. En ese sentido donde más avanzamos es en la virtualización de servidores. Hoy, el 60% está virtualizados. La idea es llegar a superar el nivel de 65%. Y si se eliminaramos toda la operación de e-mail, que usa mucha capacidad de servidores, podríamos alcanzaríamos un 80%. Por eso, creo que gran parte de estos servicios, como el e-mail, terminarán migrándose a la nube.

¿En base a su experiencia, qué  le recomienda a una empresa a la hora de evaluar una estratgeia en este sentido?
Una de las preguntas que toda empresa debe hacerse concierne a la estructrua que tiene en su centro de cómputos (data center) y aquí la variable a analizar es si se está usando un data center que fue armado de forma tradicional o que ya fue concebido para ser virtualizado.

¿Qué límites hay en el caso tradicional?
Depende de cuan estandarizado es el entorno del data center. En nuestro caso, desde el principio, acompañamos el proceso tratando de asegurarnos un nivel de estandarización y homogeneidad alto de nuestro entorno de data center y hosting. Con cada proyecto nuevo que encarabamos, buscamos aprovechar el momento para migrar todo a una misma plataforma y arquitectura. Por otro lado, nos beneficiamos de que en ese proceso si bien estuvimos sacando sistemas, soluciones y aplicaciones redundantes, no tuvimos ninguna más vieja que de 1999. Una de las razones para hacerlo es que demasiadas aplicaciones de diferente origen, que cumplen la misma función, no sólo son más costosas que una unificada sino que la data pierde calidad. Hoy, podemos decir que usamos un mismo nivel de tecnología: un sistema operativo, una misma base de datos, entre otros. Así, no tenemos problemas de legacy, lo cual también nos permite seguir ampliando de forma simple y sin problemas a estos entornos hacia un universo virtualizado. En cambio, quien opere sobre una arquitectura de varias tecnologías y estándares, tendrá problemas para aprovechar las oportunidades que ofrece la virtualización. Hay compañías que todavía funcionan con software y soluciones que, en algunos casos, tienen su origen en los ´70. Eso genera problemas de compatibilidad.

Deme un ejemplo para el caso de los servidores
Un CIO de una gran compañía me contó el otro día que el 60% de sus servidores eran x86. Ellos habían comenzado el proceso de virtualización en ese entorno, pero se dieron cuenta que era mejor tratar de aumentar, primero, el porcentaje todo lo posible para poder aprovechar después la solución más. Nosotros  estamos en un 100% sobre servidores x86. Por eso, nosotros no tenemos que preocuparnos por ese tema: podemos virtualizar de forma homogénea.

¿Cuáles fueron los principales desafíos que encontraron en su proceso de virtualización global?
Antes déjeme recordarle que la virtualización de servidores es muy diferente a la virtualizaicón de bases de datos, donde uno tiene que ocuparse de múltiples niveles de bases de datos repartidos, en el mejor de los casos, sobre múltiples servidores, que también pueden ser virtuales. Para nosotros, en esta instancia, el principal desafío fue, como ya le anticipaba antes, la madurez de nuestro software. La llave fue ser consistentes y esperar a que los bugs fueran arreglados. Eso implica paciencia y la confianza en su equipo de solucionar los problemas que aparezcan y no demandarles soluciones no viables y de corto plazo.

Sin embargo, los problemas para la operación diaria a veces no permiten tomarse esos tiempos. ¿Nunca tuvieron la sensación de tener que admitir: estamos cerca a un crash total, hay que cambiar de solución?
Obviamente, momentos de tensión las hubo y no pocos. Pero el equipo supo hacernos entender que sabían muy bien de las  complicaciones que eso generaba para el trabajo del día a día. Pero lo que era más tiempo para seguir y ver si lograban llegar a buen puerto. Mi regla para esos momentos fue siempre la misma: si ellos mismos dicen, esto no sirve, cambiamos, no había nada que hacer. Pero si ellos piden un poco más de tiempo, es por algo, y los  dejaba seguir. Obviamente no ad infinitum, pero si alguna. Resumiendo, la virtualización de servidores fue bastante simple, un poco más difícil fue el tema de bases de datos, también por el tema del estado de madurez de este mercado, que incluye pocos vendors, que en algunos casos, tienen poca experiencia en estas cosas.

¿Y en cuanto a la virtualización de storage, qué experiencia tuvieron?
Es un ámbito realmente interesante. Es más nuevo y puede ayudar mucho en reducir costos. Al elaborar, trabajar y probar nuevos desarrollos, uno tiende a generar varias copias de una misma aplicación o solución. Eso realmente ocupa mucho espacio de almacenamiento de su base de datos. Pero usted, al mismo tiempo necesita, la base datos para correr pruebas de disponibilidad, de compatibilidad, entre muchas otras. Para darle un ejemplo: si usted tiene una base de datos de 8 Terabytes (TB) y quiere usar una copia para testing, necesitará otros 8 TB y así sucesivamente. En nuestro caso, cuando iniciamos el proceso, teníamos cerca de hasta 140 TB de storage ocupados por este tipo de copias. Sin embargo, para trabajsod e desarrollo, el software de última generación permite hacer sólo copias de los cambios que se hacen en cada solución y no tener que copiar toda la base de datos. A nosotros eso, nos ayudó a reducir nuestro volumen de storage ocupado a 70TB y estamos confiados en poder llegar a 35 TB. Y eso, naturalmente, también es un ahorro de costos, porque el almacenamiento es muy costoso.

¿Cuánto invirtieron en estos últimos cinco años en términos de dinero y horas hombre para llevar su estructura a este nivel de virtualización?
Como siempre el proceso involucra varios estadíos con cambiante cantidad de personal, que también es parte de la curva de aprendizaje: uno primero tiene que probar la solución, testearla, acostumbrarse, adaptarla. En cualquier caso, los equipos involucrados en implementar el proceso son chicos: entre cinco a ocho personas. El costo es el precio de venta. Pero, obviamente, en general, los costos totales estuvieron por encima de nuestra inversión de adquisición.

Como empresa global, Accenture tiene los medios y los recursos para adoptar una estrategia de virtualización a esta escala. Pero qué se le dice a una pyme, que, si tiene suerte, tiene a una persona que debe administrar y gestionar todo el departamento de Sistemas de la empresa, más aún teniendo en cuenta que la fiebre que se despertó en los últimos tiempos por la computación en la nube?
Todo depende del tamaño. En cuanto a las empresas más chicas conviene recordar siempre que hay early adopters –que están dispuestos a pagar el alto costo que conlleva toda nueva tecnología- y late adopters- que prefieren esperar. Por ejemplo, la más rápida adopción de telefonía celular se dio en mercados en desarrollo, también por un factor de costo. Era más barato armar una infraestructura de telefonía celular, con sus antenas, que tener que colocar kilómetros de fibra óptica en el suelo. Lo que creo que pasará con la virtualización y el cloud es algo parecido. La virtualización se va expandir principalmente en grandes compañías con grandes centro de datos e infraestructuras como la nuestra que, si bien tiene los recursos también tiene la principal necesidad. Emplear a 214.000 personas en todo el mundo, con actividades en 120 países, conlleva un volumen de datos mucho mayor que induce a no dejar de aprovechar el potencial de ahorro que ofrece la virtualización. Por la misma razón, serán las pequeñas empresas que impulsarán la expansión del cloud y los servicios desde la nube, como e-mail, la gestión de documentos, entre otros. ¿Por qué? Porque es más fácil y más barato gestionar sus necesidades en la nube, donde a la larga podrán encontrar la oferta de servicios que ellos precisan sin que tener que armarlo y admnistrarlos todo por ellas mismas.

¿Y qué pasa con el tema de seguridad? En los últimos tiempos, vimos más de un caso, arrancando con los problemas que tuvo Facebook con los datos de privacidad que vio violados en su sección de juegos, o, recientemente con la caída de la red de Amazon Web Services (AWS).
La seguridad siempre será la principal inquietud.  No obstante, para una empresa del tamaño de una pyme, también la pregunta siempre estará: puede por si sóla invertir tanto y con tanta expertise en seguridad y protección como lo puede hacer alguna de las grandes compañías que ofrecen servicios de cloud? La respuesta es casi seguro que no. La seguridad es un tema de escala y de quien tiene esa escala para invertir en la seguridad. Para darle una dato: piense que 25% de los servidores que se hacen hoy, son comprados por apenas cuatro compañías que son Google, Amazon, Yahoo, Microsoft.

¿Qué le recomienda entonces a una pyme?
Que no suba la información más crítica a la nube. Que primero pruebe cómo le va con la información menos sensible, pero que sí empiece e meterse en ese mundo. Obviamente, siempre habiendo, antes, buscado información sobre cuán fiable son los proveedores.

Ustedes mismos iniciaron el proceso creando y aprovechando una nube privada. En cuanto al eterno juego entre nube privada y pública, ¿para una compañía de tamaño medio qué es mejor?
Una empresa grande, internacional, probablemente tendrá una nube privada en funcionamiento para sus principales actvidades. En todo caso, tendrá algunas funcionalidades en la nube pública. Pero recuerde, que IT es un juego a escala. Por eso, el concepto de la nube es tan atractivo: mientras más grande pueda armarla, más cae el precio por unidad que la usa. Si, en cambio, tiene varias nubes privadas, tendrá mayores costos de administración que, a la larga, licuan el principal atractivo del modelo.

¿Qué planes tienen entonces dentro de Accenture para los próximos años?
Más allá de que ya estamos muy virtualizados, buscamos culminar el proceso en el área de servidores. Por otro lado, estamos probando con pilotos de poner tareas de producción en la nube.

¿Hay un límite para este proceso, hay un punto en el cual ya no se podrá virtualizar más?
Siempre hay un límite, en virtualización por lo menos. En la nube , lo que se seguirá viendo es el juego de escalas. Por ejemplo, nosotros, todavía administramos nuestro correo -220.000 cuentas-  en nuestras nubes internas. Pero en algún punto, alguien que tiene 10 o 20 millones de cuentas, podrá hacer eso para nosotros a un precio mucho menor del que nos cuesta hoy a nosotros. Eso es la promesa que tiene la nube y creo que ese tipo de ventajas y escala llegarán mucho antes de los que muchos esperan. También es cierto, que la idea y el modelo del cloud es hoy un tema de moda. Pero lo interesante es que esa moda termina cuando la gente comienza a implementar la solución en masa. O sea creo que los servicios commodizados serán los que lleven el peso de la masificación (como el correo), mientras que las áreas más específicas tardarán en llegar. Otra cosa que está impulsando en esa dirección es, como lo dijo hace poco el CEO de Intel, que los consumidores privados están hoy, con la explosión de los dispositivos  móviles, comprando más procesadores que el sector de gobierno y de empresas en su conjunto. Eso generó un desplazamiento del nivel de tecnología. En los ’80 y ’90, la mejor tecnología se encontraba en las empresas y entre organizaciones de gobierno. Hoy es al revés: hay un mejor nivel tecnológico en casa que en la oficina. Y algo más, en mucho casos, la experiencia que tienen hoy los jóvenes incentivan e inspiran a muchos ejecutivos a querer tratar de implementar esas soluciones en sus empresas. Piense en soluciones como Skype. Y en este ámbito justamente las pymes serán las que podrán aprovechar más.

 
Ficha personal:
El CIO de Accenture Frank Modruso, fue elegido miembro del CIO Hall of Fame en 2010, y nombrado uno de los 25 CIOs más influyentes del mundo por InfoWorld’s Top y uno de los top 100 CTOs por la revista Computerworld. En su vida no tecnológica sirve como bombero voluntario y es miembro del directorio de la Opera de Chicago así como The Economic Club de la ciudad de Chicago. Modruson tien un master en Ciencias de la Computación y es Licenciado en la misma disciplina por el Dickinson College, de Pennsilvania, Estados Unidos.

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.
Nombre