viernes, 7 de marzo de 2014

Memorias Compact Flash 188 PetaBytes


CompactFlash (CF) fue originalmente un tipo de dispositivo de almacenamiento de datos, usado en dispositivos electrónicos portátiles. Como dispositivo de almacenamiento, suele usar memoria flash en una carcasa estándar, y fue especificado y producido por primera vez por SanDisk Corporation en 1994.

El formato físico sirve ahora para una gran variedad de dispositivos. Principalmente hay dos tipos de tarjetas CF, el Tipo I y el Tipo II, ligeramente más grueso. Hay tres velocidades de tarjetas (CF original, CF de Alta Velocidad (usando CF+/CF2.0) y CF de Alta Velocidad (Usando CF3.0). La ranura CF de Tipo II es usada por Microdrives y algunos otros dispositivos

Estamos hablando de 188.000 discos duros de un 1 TeraByte, o lo que es lo mismo 2,7millones de horas de vídeo en HD, o todo el tráfico que registra AT&T en una semana, o todo lo que se grabe de información durante los próximos doscientos años metida en un cuadradito de plástico

¿Sorprendido? Pues esa es, al menos en teoría, la capacidad hasta la que podrá llegar la quinta versión del estandard CompactFlash, 188 petabytes. Siguiendo con los ejemplos comparativos, con sólo cinco de ellas podrías almacenar todos los datos de los ordenadores personales del estado Minessotta, en Estados Unidos.

Hasta ahora, el estándar 4.1 limitaba hasta los ridículamente escasos, en comparación, 147 GB, y en la práctica lo máximo que se puede comprar hoy en día son 64 Gb, aunque existan de más. Este tipo de tarjetas que hace unos años eran muy populares han ido cayendo con el tiempo en el desuso frente a las SD, o las microSD, más reducidas y que se usan en multitud de teléfonos móviles, cámaras compactas o reproductores de MP3. Las CompactFlash habían quedado relegadas a cámaras réflex profesionales, por ejemplo.

Pero la verdad es que todo eso puede empezar a cambiar, el máximo de las SD actual, con el estándar SDXC, se queda en los 2 TB, a años luz de los 188 que estamos hablando.

lunes, 3 de marzo de 2014

Procesadores con 32 Núcleos


Las previsiones de Intel que en menos de cuatro años planea tener disponible un microprocesador con 32 núcleos trabajando conjuntamente.

Tal y como indican en TG Daily, Intel anunció hace cinco años que querían lograr disponer de un microprocesador a 20 GHz en la segunda mitad de esta década. Nada menos que mil millones de transistores (no parece mucho teniendo en cuenta los súper núcleos actuales de Intel, AMD, NVIDIA o ATI) tendría ese monstruito, pero las cosas han cambiado sensiblemente.

De hecho, la carrera por el procesador más rápido ha sido sustituida por la carrera por el procesador con más núcleos. Los procesadores con doble núcleo actuales son solo un pequeño paso en una transición que reducirá la frecuencia de reloj sensiblemente, pero que gracias al uso de la potencia combinada de varios núcleos permitirá obtener rendimientos asombrosos en pocos años.

No hay un número específico de núcleos programado para esos procesadores que Intel ha denominado "many cores" (multinúcleo), pero el primero de ellos parece responder al nombre de Gulftown, englobado en el proyecto Keifer, y que integraría 32 núcleos. la tecnología de fabricación utilizada sería de 32 nm, y constaría de ocho nodos de procesamiento con 4 núcleos cada uno, y que en total podrían acceder a una caché de 24 Mbytes de lo que se denomina "Last Level", o último nivel.

Parte de esa estrategia se basa en la potencia que según estudios de la propia Intel tendrá un rival que inicialmente muchos no considerarían: Sun y su arquitectura Niagara prometen soluciones con una potencia similar, pero más tempranas en aparición con procesadores como el actual Ultra Sparc T1, una bestia con 8 núcleos a 1,2 GHz cada uno y capaz de manejar 32 hilos de ejecución simultáneamente.

jueves, 6 de febrero de 2014

ITIL (Information Technology Infrastructure Library)

ITIL son las siglas de una metodología desarrollada a finales de los años 80’s por iniciativa del gobierno del Reino Unido, específicamente por la OGC u Oficina Gubernativa de Comercio Británica (Office of Goverment Comerce). Las siglas de ITIL significan (Information Technology Infrastructure Library) o Librería de Infraestructura de Tecnologías de Información.

Esta metodología es la aproximación más globalmente aceptada para la gestión de servicios de Tecnologías de Información en todo el mundo, ya que es una recopilación de las mejores prácticas tanto del sector público como del sector privado. Estas mejores prácticas se dan con base a toda la experiencia adquirida con el tiempo en determinada actividad, y son soportadas bajo esquemas organizacionales complejos, pero a su vez bien definidos, y que se apoyan en herramientas de evaluación e implementación.

EL OBJETIVO DE USAR ITIL EN MANAGED SERVICES

ITIL como metodología propone el establecimiento de estándares que nos ayuden en el control, operación y administración de los recursos (ya sean propios o de los clientes). Plantea hacer una revisión y reestructuración de los procesos existentes en caso de que estos lo necesiten (si el nivel de eficiencia es bajo o que haya una forma más eficiente de hacer las cosas), lo que nos lleva a una mejora continua.

Otra de las cosas que propone es que para cada actividad que se realice se debe de hacer la documentación pertinente, ya que esta puede ser de gran utilidad para otros miembros del área, además de que quedan asentados todos los movimientos realizados, permitiendo que toda la gente esté al tanto de los cambios y no se tome a nadie por sorpresa.

En la documentación se pone la fecha en la que se hace el cambio, una breve descripción de los cambios que se hicieron, quien fue la persona que hizo el cambio, así como quien es el que autorizó el cambio, para que así se lleve todo un seguimiento de lo que pasa en el entorno. Esto es más que nada como método con el que se puede establecer cierto control en el sistema de cambios, y así siempre va a haber un responsable y se van a decir los procedimientos y cambios efectuados.

CONCEPTO DE SOLUCIONES PARA ITIL DESDE EL PUNTO DE VISTA DE NEGOCIO

Según este diagrama vemos como aparentemente tenemos segmentos del negocio aislados, pero en realidad todos tienen algo que ver para la obtención de las soluciones. Por ejemplo la prestación de servicios muchas veces no seria posible sin la gestión de infraestructura, asimismo las perspectivas del negocio no se darían sin la prestación de servicio y los servicios no serian posibles sin un soporte al servicio. Y el punto de interacción que se da entre estos segmentos del negocio es la búsqueda de soluciones, donde lo que se busca es que las perspectivas del negocio estén soportadas en base a la prestación de servicios; la prestación de servicios requiere que se le de un soporte al servicio para que este siempre disponible, la disponibilidad la podemos lograr mediante una gestión de la infraestructura y en lugar de tener al centro las soluciones vamos a tener a los clientes satisfechos.



Forma de uso de ITIL en Managed Services

ITIL postula que el servicio de soporte, la administración y la operación se realiza a través de cinco procesos:

1.Manejo de Incidentes
2.Manejo de problemas
3.Manejo de configuraciones
4.Manejo de cambios y
5.Manejo de entregas

Más información acerca de ITIL en :
http://www.itil.co.uk -El Sitio Oficial de ITIL
http://www.exin.nl -Organismo de Certificación
http://www.itsmf.com -Forum Internacional de Gestión de Servicios TI
http://itil.osiatis.es/Curso_ITIL/Gestion_Servicios_TI/fundamentos_de_la_gestion_TI/que_es_ITIL/que_es_ITIL.php

miércoles, 8 de enero de 2014

Virtualización

Es la técnica empleada sobre las características físicas de algunos recursos computacionales, para ocultarlas de otros sistemas, aplicaciones o usuarios que interactúen con ellos. Esto implica hacer que un recurso físico, como un servidor, un sistema operativo o un dispositivo de almacenamiento, aparezca como si fuera varios recursos lógicos a la vez, o que varios recursos físicos, como servidores o dispositivos de almacenamiento, aparezcan como un único recurso lógico.

Por ejemplo, la virtualización de un sistema operativo es el uso de una aplicación de software para permitir que un mismo sistema operativo maneje varias imágenes de los sistemas operativos a la misma vez.

Esta tecnología permite la separación del hardware y el software, lo cual posibilita a su vez que múltiples sistemas operativos, aplicaciones o plataformas de cómputo se ejecuten simultáneamente en un solo servidor o PC según sea el caso de aplicación.

Hay varias formas de ver o catalogar la virtualización, pero en general se trata de uno de estos dos casos: virtualización de plataforma o virtualización de recursos.

Virtualización de plataforma: se trata de simular una máquina real (servidor o PC) con todos sus componentes (los cuales no necesariamente son todos los de la máquina física) y prestarle todos los recursos necesarios para su funcionamiento. En general, hay un software anfitrión que es el que controla que las diferentes máquinas virtuales sean atendidas correctamente y que está ubicado entre el hardware y las máquinas virtuales. Dentro de este esquema caben la mayoría de las formas de virtualización más conocidas, incluidas la virtualización de sistemas operativos, la virtualización de aplicaciones y la emulación de sistemas operativos.
•Virtualización de recursos: esta permite agrupar varios dispositivos para que sean vistos como uno solo, o al revés, dividir un recurso en múltiples recursos independientes. Generalmente se aplica a medios de almacenamiento. También existe una forma de virtualización de recursos muy popular que no es sino las redes privadas virtuales o VPN, abstracción que permite a un PC conectarse a una red corporativa a través de la Internet como si estuviera en la misma sede física de la compañía.

¿Qué ventajas podemos tener con la virtualización?
Veamos algunas de las más comunes.

Los usuarios serán provistos con dos o más ambientes de trabajo completamente independientes entre si según se requiera. Si se manejan dos como en la mayoría de los casos, un ambiente de trabajo sería abierto para que usuarios hagan efectivamente en el lo que quieran, agregando dispositivos e instalando cualquier software que elijan. El segundo ambiente estaría cerrado o restringido; es decir, donde el usuario solo tendría acceso a lo que es crítico para la organización y sus negocios. De esta forma, si el primer ambiente sufre una caida o colapso, el segundo ambiente sigue trabajando haciendo que el negocio no pare.
En caso de que la organización constantemente ocupe estar cambiando de aplicaciones por cuestiones de su negocio, la virtualización permite conservar los mismos equipos terminales o de trabajo, y realizar todos los cambios de versiones y plataformas vía un entorno virtualizado en la red y teniendo como fuente al servidor.

¿Y que hay de las desventajas?
El uso de la virtualización representa conflictos con el licenciamiento que aplican los fabricantes de software. El software de virtualización representa un desafío para los tipos de licencia por usuario existentes actualmente, por lo cual es probable que cambien las reglas respecto al licenciamiento de software. Claro está que su instalación y administración requiere de personal calificado en TI, mas su uso puede ser transparente para un usuario promedio corporativo.

Aqui les dejo un LINK para que prueben una versión de 30 días gratis según los requerimientos que necesiten : http://www.vmware.com/

viernes, 3 de enero de 2014

Que es "Cloud Computing" La Nube

Es un término que se define como una tecnología que ofrece servicios a través de la plataforma de internet. Los usuarios de este servicio tienen acceso de forma gratuita o de pago todo depende del servicio que se necesite usar.

El término es una tendencia que responde a múltiples características integradas. Uno de los ejemplos de está “nube” es el servicio que presta Google Apps que incorpora desde un navegador hasta el almacenamiento de datos en sus servidores. Los programas deben estar en los servidores en línea y puedas accesar a los servicios y la información a través de internet.



Características del Cloud Computing

Una de las principales diferencias del Cloud Computing es que no hay necesidad de conocer la infraestructura detrás de esta, pasa a ser “una nube” donde las aplicaciones y servicios pueden fácilmente crecer (escalar), funcionar rápido y casi nunca fallan, sin conocer los detalles del funcionamiento de esta “nube”.

Este tipo de servicio se paga según alguna métrica de consumo, no por el equipo usado en sí, sino por ejemplo en el consumo de electricidad o por uso de CPU/hora como en el caso de Amazon EC2. Entre otras características podemos mencionar:

Auto Reparable: En caso de fallo, el último backup de la aplicación pasa a ser automáticamente la copia primaria y se genera uno nuevo.
Escalable: Todo el sistema/arquitectura es predecible y eficiente. Si un servidor maneja 1000 transacciones, 2 servidores manejaran 2000 transacciones.
Regidos por un Acuerdo de Nivel de Servicio (SLA) que define varias políticas como cuales son los tiempos esperados de rendimiento y en caso de pico, debe crear más instancias.
Virtualizado: las aplicaciones son independientes del hardware en el que corran, incluso varias aplicaciones pueden corren en una misma máquina o una aplicación puede usar varias máquinas a la vez.
Multipropósito: El sistema está creado de tal forma que permite a diferentes clientes compartir la infraestructura sin preocuparse de ello y sin comprometer su seguridad y privacidad

Algunos ejemplos de Cloud Computing

Varias son las grandes empresas que se han dedicado a ofrecer estos servicios, promoviendo el fácil acceso a nuestra información, los bajos costos, la escalabilidad y muchas características que nos hace pensar en la comodidad que nos brindan, entre ellas podemos mencionar:

Google Apps: brinda el servicio de aplicaciones para empresas como Gmail, Google Talk, Google Calendar y Google Docs, etc.
Amazon Web Services: los servicios que ofrece son el Amazon EC2™, Amazon S3™, SimpleDB™, Amazon SQS™.
Azure de Microsoft: ofrece servicios de sistema operativo, hosting, sistemas para desarrollo.
Rackspace: una famosa empresa de hosting, está detrás de Mosso una compañía la cual ofrece un paquete de básico de hosting y a partir de este se escala según se necesite (y sin migrar de servidores). Recientemente Rackspace adquirió a JungleDisk, un popular cliente para Amazon S3 y que a futuro estará integrándose con CloudFiles, otro servicio de Mosso.
Ventajas y desventajas del Cloud Computing

Entre las ventajas de la Cloud Computing se pueden mencionar:

•Acceso a la información y los servicios desde cualquier lugar.
•Servicios gratuitos y de pago según las necesidades del usuario.
•Empresas con facilidad de escalabilidad
•Capacidad de procesamiento y almacenamiento sin instalar máquinas localmente.

Entre las desventajas podemos mencionar:

•Acceso de toda la información a terceras empresas.
•Dependencia de los servicios en línea.