Virtualización: "El factor humano sigue sin atenderse"

El ejecutivo comenta en entrevista exclusiva por qué el principal problema de la virtualización no es tecnológico. Además, su visión sobre el mercado en 2011. 09 de Febrero 2011
Virtualización: "El factor humano sigue sin atenderse"

No todo es código en el negocio de la virtualización. Por un lado,  las previsiones le auguran al sector para 2011 ingresos por encima de la marca de u$s 50.000 millones. Apenas dos años atrás, la cifra rondaba u$s 17.000 millones. Pero, por el otro, la tecnología, que se está revolucionando nuestro mundo, sigue sufriendo un problema bien humano: la psychología. Marc Egan, responsable de la unidad de Tecnologías de la Información de VMware a nivel global cuenta, en entrevista exclusiva con IT Business, por qué y cómo solucionarlo.

Muchos entienden al cloud como una variante de la virtualización. ¿Coincide?
Digamoslo así, el cloud es un estilo de virtualización para realizar ciertos trabajos de IT. Mientras que la virtualización es una tecnología, un facilitador. Yo definiría a la virtualización como una forma de utilizar de forma efectiva los recursos existentes, como por ejemplo en un servidor.

¿Cuál es entonces el principal problema de la virtualizaicón que las empresas no logran dominar?
Gran parte es la injerencia del factor humano. Por ejemplo, en el universo de la IT tradicional, el administrador de Sistemas no suele tener un entendimiento acabado del tema de storage o de las redes. Pero, en un entorno virtualizado, es necesario tener un claro dominio de las tres dimensiones para poder aprovecharlo. O sea es una diferencia de skills. Y eso trae consigo todo un mundo de miedos e inseguridades, que se deben saber atender para no generar resistencia interna al cambio. Un ejemplo: si uno virtualiza, ya no necesitará tener 10 servidores físicos. Y ahí es cuando, el responsable, que los administraba hasta ese momento, puede sentir que pierde poder. Otro ejemplo: el desktop virtualizado. El técnico responsable, que se encargaba de mantener, gestionar o actualizar los PCs físicos tendrá, seguramente, sienta pavor, al ver que todo eso se lleva al servidor y que, a primera vista, él ya no es de utilidad para la empresa. Saber generar el entorno para que esa inseguridad no se convierta en rechazo es un factor clave, que hoy no se está enfrentando como se debe.
 
¿Cómo se puede lograr?
La recomendación es crear, en la empresa, un equipo especial, una task force si quiere, que lleva adelante la evangelización de la compañía sobre virtualización y los procesos que conllevan para la empresa. De la mano de este grupo de expertos internos, la plantilla se acercará a lo que es la virtualización, aprende a utilizar sus herramientas y tiene a un grupo de expertos para consultar y evacuar inseguridades.

¿Quién debería formar parte de este grupo de expertos?
Obviamente el CIO. También alguien de la parte financiera, que es su socio natural. Pero una persona que no debe faltar en este grupo es un arquitecto de plataformas. O sea, una persona que pueda tener una visión más amplia y superadora de los entornos informáticos de la empresa. Y no estoy hablando de una administrador de Sistemas. Además, el grupo tiene que ser chico y de funcionalidades múltiples. Porque son ellos los que deberán explorar las posibilidades que ofrece esta tecnología para mi empresa, qué puedo hacer y para qué sirve en mi caso particular.

Entre los principales retos para la virtualización, la seguridad es otro sino el principal problema. ¿Dónde y cómo debe atenderse?
En cuanto a los issues, las amenazas no son diferentes en el mundo virtualizado que en el mundo físico.

Sin embargo, en el mundo físico, me puedo guardar mi información en un equipo físico; no la expongo a una amenaza más allá del robo de información o similar.
Lo que nosotros recomendamos, a la hora de virtualizar, es primero encapsular la información, la aplicación, los datos que se colocan en una máquina virtualizada (VM). Luego, por políticas de empresa usted, automáticamente, sólo se podrá comunicar con esa máquina si está autorizado. De esta forma, la VM está tan o, incluso, más segura que la del mundo real. Por otro lado, el problema también radica en la falta de encriptación de datos.

¿En qué sentido?
Hoy no se ve mucha encriptación, cuando, en realidad, tanto en el mundo físico como en el virtual debería hacerse siempre. No obstante, yo diría que sólo la mínima parte de las firmas en el mundo están encriptando sus datos. Se trabaja mucho con diferentes niveles de seguridad, con firewalls, por ejemplo. Pero, una vez que una persona no autorizada logró penetrar el cerco, la información esta totalmente a su merced.

¿Qué tendencias ven reforzarse para este año en virtualización?
Uno será, seguramente, la virtualización del escritorio. Otro de los grandes temas va a ser, el segmento de interacción entre las nubes públicas y privadas: ¿cómo movemos elementos entre ambos entornos? Si bien las nubes privadas ya son casi un denominador común y muchas empresas ya las han implementado, el próximo paso es ver cómo se pueden aprovechar para utilizarlas con las nubes públicas.

¿Con qué se está probando?
Por ejemplo, testear si puedo activar y contratar recursos en una nube pública, digamos la de Amazón, y por un tiempo determinado. Otro ejemplo: yo, como empresa, tengo un nuevo producto que quisiera adquirir pero, antes, tengo que saber sí puede funcionar en el marco de mi infraestructura. Lo que hago es salir a una nube pública, alquilar estructuras virtualizadas, que permitan recrear los puntos cardenales de la mía, y testear el producto allí.

¿Cuáles son las principales innovaciones en virtualización que se trabajan en el mercado?
Una es lograr la virtualización 100% entre escritorio y cliente. El tema del arbitraje de costos: o seá, sé qué servicios utilizo y a qué costo interno. Pero, en una nube pública, puedo conocer la oferta de los proveedores allí presentes y comparar precios. Un ejemplo es el servicio de mail. ¿Por qué voy a soportar limites sobre el servicio de mail, si puedo tenerlo a un precio más bajo y sin limitaciones en la nube. O sea, veremos que el juego de demanda vs. oferta se trasladará más a la nube pública.

¿Y cuál será la tecnología que más impactará en este año?
Todo lo que tenga con la experiencia del usuario o consumidor. Hoy, las personas exigen tener la experiencia de una iPad, la tablet con el nuevo Android, Facebook y Twitter, en sus entornos laborales. Por eso, para nosotros, el desafío estará en saber cómo presentar las aplicaciones e interfases de trabajo en una versión simple, fácil de usar y tan entretenidas como para que los trabajadores pasen tanto tiempo e inviertan también el mismo ingenio en las aplicaciones de trabajo como lo hacen en redes como Facebook.

Ante el avance de esta tecnología, todo tendrá su versión virtualizada, a futuro?
Digamoslo así: la virtualización no es algo nuevo. Está entre nosotros desde hace mucho tiempo. Piense en los mainframes, de hace 40 años atrás, estos ya incluían entornos virtualizados. Luego, lo que paso fue que la IT, a nivel global pasó por una de sus fases evolutivas, y sobrevinieron los PCs, los client servers, que llevó a que tuviéramos una gran cantidad de servidores en la calle pero que no eran utilizados de forma eficiente. Lo se hizo entonces fue tomar una concepto ya conocido -virtualizaicón- y se lo aplicó a los problemas actuales. La idea fue tener un entorno de 10 servidores, pero sólo usar dos. Y hoy, simplemente estamos ampliando la extensión de ese concepto a otros ámbitos de la infraestructura IT.

¿El mainframe está volviendo a la vida gracias a la virtualización?
Creo que varias empresas quieren verlo así y que todo se está volviendo al mainframe. Pero si yo pienso en mainframe lo que pienso es: más caro, más rico y más lento, cuando lo que necesitamos es velocidad y flexibilidad.

¿Por qué? Si, como indicaba, el mainframe ya hace 40 años tenía partes virtualizadas.
El tema es Por eso, en mi humilde opinión no creo que más mainframes son realmente la respuesta a los desafíos del futuro. Lo que tenemos que hacer es tomar el concepto de virtualización que se inicio con el mainframe y seguir evolucionando. Pero, comprar hoy un dispositivo que cuetsa varios miles de millones de dólares, ¿para qué? Hoy, yo puedo tener una máquina x86 o una grupo de estas.

El argumento aquí es el nivel de seguridad que me aseguran los mainframes.
No concuerdo con esa opinión. No creo que un mainframe sea mucho más seguro que uno de los servidores x86 que mencioné recién. Simplemente no lo veo.

¿Cuáles serían las áreas para una empresa que no deberían ser virtualizadas?
Hablando sólo desde la perspectiva de VMware, le puedo contar que somos una empresa que está virtualizada al 97%. Para este año, esperamos alcanzar sólo en la unidad de servidores una tasa de 100%. Por eso creo que la tecnología sí existe. Lo único que falta es que las compañías se acostumbren, comiencen a sentirse confortables con esta tecnología. Pero, el tema es que somos adversos al riesgo y eso nos exige que todo haya sido probado. Y por más que la tecnología esté, que gran parte de esta haya sido probado con éxito, queda algún tiempo hasta que nos acostumbremos. Pienselo así: 2009 fue un año en el cual se dio un cambio de paradigmas. Fue el año en el que la cantidad de servidores virtualizados superó el de los servidores físicos.

¿Cuál es el área que todavía debe enfocarse más en la virtualización?
Yo diría que a medida que se avanza en la secuencia de fases, el Management podría hacer más, en seguridad e integración. Esas son las áreas donde todavía falta hacer foco.

Ahora, eso totalmente válido para una empresa que tiene un departamento de IT propio. Pero, si, como sucede en la Argentina y en gran parte de los países de la región, la matriz empresarial se constituye por pymes, que, en la mayoría de los casos no tendrán un CIO, ni siquiera un equipo de informáticos, ¿cómo se reduce la resistencia allí?
Si bien no tengo mucha experiencia en el entorno latinaoamericano, nuestra experiencia de otros mercados es, justamente, que si bien la pyme, como bien dice no puede darse el lujo ni cubrir el gasto que significa mantener un departamento de IT propio, sí tienen la necesidad y la habilidad para moverse rápido. Por el simple hecho de que la necesidad de tener una solución para administrar o gestionar una infraestructura informática es mucho más alta. Muchas veces, quienes se ocupan de la parte de sistemas o de las aplicaciones en una pyme, se cuestionan de qué forma pueden llegar a dominar su tarea, porque cambia rápido, porque hay que actualizar toda la plataforma o algo parecido. Y por eso, mientras que en una empresa grande, por ejemplo, acercarse al concepto de cloud puede llevar más tiempo o más escalas, una pyme, muchas veces adopta y se pasa a un paquete de software como servicio (SaaS, por sus siglas en inglés), porque simplemente no tienen la cantidad de recursos para hacerlo. En cualquier caso, no se olvide, que los responsables de IT somos, por naturaleza agentes de cambio. Y por eso estamos obligados a ser buenos comunicadores: y, en este sentido, virtualizaicón depende de que sepamos entender, primero, y reflejar después de que es una tecnología que me puede ayudar, literalmente, a poder solucionar cinco problemas, cosas, más de las 20 que tengo regularmente en mi lista de To Do y de la que sólo logró cumplir con 10, en promedio. O sea: de que realmente es una ayuda, que puede ser una gran ayuda y noslo eso, sino que, además, me permite ahorrar buen dinero.



¿Te gustó la nota?

Comparte tus comentarios

Sé el primero en comentar