Autos conectados y pólizas de seguros: el mundo que viene

Ok, es cierto: aún los vehículos autónomos son un proyecto. No obstante ya tenemos automóviles que se estacionan solos, que se detienen frente a otros vehículos sin intervención del conductor, o que avisan que el kilometraje amerita una visita al taller. Esto influye en una industria distinta, pero vinculada: las pólizas de seguro.

Ya hay una transformación digital en el mundo del seguro argentino: en marzo 2018, la Superintendencia de Seguros local modificó el Reglamento General de la Actividad Aseguradora (RGAA) permitiendo la contratación de seguros por medios electrónicos, y abriendo el camino hacia la total digitalización de las pólizas.

Y a medida que aumenta la cantidad de autos conectados y teléfonos inteligentes, va mutando la oferta convencional de las compañías de seguros, especialmente en Norteamérica y Europa. Opciones tales como el PAYD (Pay-as-you-drive, pague a medida que conduce) permiten ajustar el costo del seguro para aquellos que usan menos el vehículo, los conductores de fin de semana por ejemplo. O el PHYD (Pay-how-you-drive), algo similar al scoring, que beneficia al conductor que no tiene siniestros durante el año. Al ser cada vez más fácil registrar la información de conducción del vehículo, es posible verificar los patrones de conducción mediante un black box instalado por la aseguradora en el automóvil. Así, se detectarían conductas seguras del conductor, que al reducir el riesgo permitan también bajar la prima del seguro. Desde hace tiempo ya, las compañías de seguros estudian una variedad de factores personales de sus asegurados que incluyen edad, sexo, estado civil, nivel de educación, y otros que evalúan su exposición al riesgo- los datos del black box sólo complementarían aquél análisis previo.

El equipamiento de fábrica de los vehículos del futuro también pueden ayudar en estos menesteres. Sistemas de prevención de accidentes tales como detectores de adormilamiento, control de velocidad crucero adaptativos que regulan la velocidad según el tránsito, o sistemas de prevención de colisiones mediante comunicación entre vehículos (V2V) o con la infraestructura del camino (V2I), tienen potencial para bajar la incidencia de siniestros, lo que puede ser utilizado para reducir la prima a los vehículos que cuenten con esos sistemas a bordo.

Ampliar sus ofertas y personalizarlas, permitirá a las aseguradoras no sólo ofrecer seguros comunes (con quizás un solo contacto del cliente por año) sino toda una gama de servicios, con contactos más frecuentes con sus clientes, que le daría la oportunidad de fortalecer la lealtad de aquellos.

Lo más difícil, quizá, sea sacar a las organizaciones de su zona de confort, para que diseñen modelos comerciales completamente nuevos y de valor agregado. Para cosechar beneficios de todo lo antedicho, las compañías de seguros, los fabricantes de automóviles, los proveedores de servicios y los gobiernos tendrán que trabajar juntos en una próxima generación de modelo de negocio alrededor de un tráfico de vehículos inteligentes… y conectados.

Anuncios
Publicado en app, autos conectados, dispositivos, Hardware, infraestructura, Inteligencia Artificial, Internet de las Cosas, nube, Nuevos modelos de negocios, Seguridad, Sin categoría, smart cities | Etiquetado , , , , , , , | Deja un comentario

Una victrola que no llora por la Argentina

La letra de Carlos Lenzi para el tango “A media luz” (1924) da una muestra de cuan popular resultaba el término “victrola”, incluso como sustantivo genérico para designar el tocadiscos. A diferencia de Maple (una mueblería muy famosa que ya nadie recuerda), la referencia a la victrola mantuvo su vigencia incluso en tiempos del streaming.

El popular gramófono había nacido en 1906, en Camdem, New Jersey, presentado por la Victor Talking Machine Company. Victrola es hoy una marca registrada de RCA (por entonces Radio Corporation of America), que en 1929 adquirió la Victor Talking Machine Company, formándose en aquel entonces RCA Victor.

La historia continúa, y tiene un capítulo local. Hace algunos días, el fabricante y distribuidor tecnológico Grupo Núcleo anunciaba la realización de un acuerdo estratégico para la distribución de Victrola en la Argentina. “Elegimos a Victrola para la distribución, una marca de primer nivel, reconocida en el mundo y que cuenta con productos distintos. No sólo son reproductores de vinilos con tecnología Bluetooth, sino que además son productos decorativos vintage —dijo Maximiliano Gonzalez Kunz, CEO de Grupo Núcleo—. Victrola es una de las patentes de tecnología con más de 90 años de historia en los Estados Unidos. El nombre de la empresa pasó a ser el genérico del producto en su momento logrando que a los gramófonos los renombren como victrolas (o vitrola en algunos países), dando cuenta de su posicionamiento, historia y de la fuerza de su branding”.

“Victrola tiene muchas variantes, pero el lineal más importante, lo podemos destacar con sus bandejas tocadiscos con Bluetooth y salida RCA. Vamos a contar con modelos que van desde 3 soluciones a 1, hasta productos que tienen 9 en 1, incorporando reproductor de CD, reproductor de casete, grabador del vinilo a CD en formato MP3/4 y en algunos productos incluyen Radio FM. También tendremos una rocola muy interesante que va a sorprender a los usuarios”, afirmó Sergio Balsamo, gerente de Compras de Grupo Núcleo y subrayó: “Victrola nos aporta una excelente opción en una línea de productos, que no estamos comercializando. Con la marca tenemos un contrato de exclusividad para Argentina y contemplamos un plan de negocios a largo plazo. Las expectativas son importantes, es un lineal pensado con foco para las cadenas retail, donde todas ellas van a poder encontrar productos que van a poder trabajar cómodamente y que salen del estándar de lo ofrecido en el mercado”.

Jose Waijman

“Elegimos a Grupo Núcleo por su profesionalismo, seriedad, penetración en el canal retail y sus años de experiencia. Estamos convencidos de que la empresa es ideal para nuestros objetivos, y que harán un trabajo de la envergadura que esto representa, Es un acuerdo a largo plazo con cobertura en todo el país, y con una amplia variedad de soluciones. Pretendemos cubrir las dos áreas más importantes y en crecimiento de la música. La Bandeja Giradiscos, la única categoría que en el 2017 presentó crecimiento en algunos países de más del 45%”, explicó Jose Waijman, Latin American Sales Director de Victrola.

“El streaming es la realidad de hoy —destacó el ejecutivo de Victrola—, todos tenemos música en nuestros teléfonos, esto hace que un equipo de audio sin BT sea algo incompleto. Un Victrola te agrega no solo un tocadiscos, sino una solución de BT para ese equipo que no lo poseía. Todo en un solo equipo. Las soluciones que ofrecemos combinan, audio a través del uso del Vinilo, existe hoy un nuevo récord de producción de todas las discográficas, Radio, BT, salida de RCA para conexión a los equipos existentes y un diseño único y atractivo que hace que estos productos sean parte de la decoración del hogar. Desde la radio más simple con estilo retro hasta los modelos más actuales pasando por los de los años 50’ y llegando a la categoría profesional. Victrola cubre el espectro completo del mercado y el gusto de diferentes clientes. Nadie ofrece la variedad de productos de Victrola en esta categoría, por esto es que bajo los estrictos análisis de NPD en USA Victrola ha capturado el 39% del mercado en esta categoría”.

El pase de diapositivas requiere JavaScript.

“En breve vamos a anunciar la disponibilidad de la bandeja/tocadiscos, con Bluetooth incorporado y salida RCA, modelos que van de 3 en 1, a 9 en 1 incorporando, CD player, pasacassette, grabador del vinilo a CD en formato MP3/4 con microchip incorporado (no necesitan computadora para el procesamiento), USB player y Radio FM, entre otras características”, concluyó Balsamo.

Publicado en Adquisiciones, audio, dispositivos, Historia, mercado, retail, Sin categoría | Etiquetado , , , , , , , , , , , , , | Deja un comentario

Los puertos avanzan hacia la inteligencia en tiempo real

En la actividad marítima, la información portuaria (como tráfico, disponibilidad de amarras, o meteorología) suele manejarse caso por caso, en lugar de estar disponible a través de una red. La falta de acceso a datos en tiempo real aumenta significativamente el margen de error… pero eso va a cambiar. Pronto. 

 

Alrededor del 80% del comercio mundial por volumen se transporta por barco. Aún así, la industria marítima está rezagada en el uso de la tecnología de la información y las comunicaciones. Los buques comerciales poseen diversos sistemas para funciones críticas como la temperatura de las cargas refrigeradas, el consumo de combustible, o el rumbo óptimo, pero éstos funcionan en forma separada y no suelen estar bien integrados con los sistemas en tierra de gestión de flotas, mucho menos maximizan el potencial de estos datos en tiempo real.

Diversas iniciativas se dedican al abordaje (nunca mejor usado el término) de esta falta de integración. Rolls-Royce estrenó en enero 2018, un centro de investigación de vanguardia en Turku, Finlandia, para desarrollar la industria naviera global del futuro, mediante proyectos centrados en el uso de inteligencia artificial para el manejo remoto de buques autónomos. Esto se inscribe en la órbita de One Sea Ecosystem, una asociación entre grandes actores como ABBEricsson, Wärtsilä (fabricante de motores marinos) y la misma Rolls-Royce. Todos ellos intentan combinar una solución “en la nube” de aplicaciones industriales, administración de conectividad e integración de sistemas.

Por otro lado, IBM y CISCO están uniendo sus plataformas Watson IoT y Kinetics para convertir a Rotterdam en el puerto más inteligente y conectado del mundo. Según Paul Smits, director financiero de la Autoridad del Puerto de Rotterdam: “Gracias a la información en tiempo real sobre la infraestructura, el agua, el aire, etc., podemos mejorar enormemente el servicio que brindamos a todos los que usan el puerto, y prepararnos para ser el puerto conectado del futuro.”

El advenimiento de la “Internet de las cosas” y nuevos conocimientos como el manejo de grandes volúmenes de información (“Big Data”) nos permite proyectar tecnología y capacidades que solo se podían soñar hace unas décadas. Por ejemplo podríamos tener contenedores marítimos cuyo paradero y condiciones ambientales estén fácilmente disponibles, en forma individual, a través de un tablero de comando integrado que garantice la salubridad de sus contenidos. O bien tener a bordo inteligencia artificial que permita optimizar los trayectos, mediante información actualizada sobre el clima y las condiciones del tráfico tanto en el mar como en los puertos. Los buques podrán reducir su velocidad para ahorrar combustible, ya que al ser autónomos no perjudican la vida social de sus tripulantes, los cuales podrían “cumplir su turno” y volver a su hogar como cualquier oficinista, transfiriendo el mando a colegas de otro huso horario para que continúen su labor.

La industria del transporte marítimo a menudo requiere grandes inversiones para mantener las prácticas comerciales tradicionales. Bien aprovechadas, las nuevas tecnologías pueden simplificar los procesos internos y externos, así como toda la cadena de suministro, ahorrando tiempo, combustible y dinero.

Publicado en Big Data, dispositivos, Hardware, infraestructura, ingeniería, Internet de las Cosas, Seguridad, Sin categoría, Telecomunicaciones, videovigilancia, Wireless | Etiquetado , , , , , , , , , , , , , | Deja un comentario

Fortinet y VMware: Cómo serán las redes en los próximos veinte años (y cómo protegerlas)

En la foto: Candelaria Alvarez, Marketing Manager de VMWare; Octavio Duré, Solution Engineering Senior Manager para SOLA de VMWare; Gonzalo García, director de Fortinet para Sudamérica; Hernando Castiglioni, gerente de Ingeniería de Fortinet para Argentina; Mariano Stokle, NSX Sales Specialist de VMware para SOLA; y Adrián Costa, Marketing Manager de Fortinet.

La semana pasada, Fortinet y VMware realizaron una presentación conjunta en la Ciudad de Buenos Aires, que abordó el tema de ciberseguridad en las nuevas arquitecturas de redes, necesarias para dar impulso a la transformación digital dentro de las organizaciones.

Mariano Stokle, NSX Sales Specialist de VMware en la región Sur de América Latina, fue el encargado de dar el contexto a la presentación. “En los últimos veinte años, hemos diseñado redes desde el punto de vista de hardware. Pensando para qué sirven, dónde iban a residir: redes para el datacenter, para conectar a los usuarios, para llegar a las sucursales… Cada uno de esos ámbitos eran conceptualmente diferentes. Para los próximos veinte años hay que pensar las redes de una manera totalmente diferente”, dijo.

Las nuevas redes son definidas por software y deben adaptarse a los cambios que requieren las aplicaciones en tiempo real, con una mínima intervención manual, y con la capacidad de dar soporte a la aplicación en cualquier lugar donde se encuentre (la nube pública, instalaciones propias, funcionando a partir de información repartida en múltiples locaciones). De hecho, las diferentes capas que conforman la aplicación podrían residir en datacenters diferentes o en nubes públicas.

Stokle comentó que más del 70% de los ataques conocidos no se producen por fallas en las prácticas de seguridad o vulnerabilidades, sino que se dieron a través de credenciales válidas de usuarios. Esta clase de acceso indebido (pero que el sistema no reconoce como tal) le da al atacante una libertad mayor que si accediera desde el exterior, aprovechando vulnerabilidades, malas prácticas o agujeros de seguridad. La forma de evitarlos es proteger adecuadamente esa puerta a los datos, que son las aplicaciones.

Para dar respuesta a este desafío, VMware lanzó recientemente su Virtual Cloud Network. El objetivo de esta solución es brindar un desempeño consistente y las mismas funcionalidades y características en el datacenter, la sucursal o las nubes, cualquiera sea su sabor. En otras palabras: sin importar donde la aplicación esté corriendo, dispondrá automáticamente de los requisitos que necesita para hacerlo.

Virtual Cloud Network es un desarrollo que se basa en la solución de virtualización de redes de VMware: NSX (una tecnología que llegó a VMware luego de la adquisición de Nicira, hace poco más de un lustro). Esta plataforma estaba limitada al entorno de los centros de datos (para la red del datacenter). Ahora, y merced a distintas incorporaciones que VMware realizó sobre NSX (NSX SD-WAN by VeloCloud, NSX Data Center., NSX Cloud y NSX Hybrid Connect), esta flexibilidad, las funciones y la seguridad que antes se limitaban a la red del centro de datos se extienden a todos los ámbitos en donde las aplicaciones corran. Todo ello “definido por software”, y funcionando en ambientes y arquitecturas diversas, que van más allá de las que habilitan las soluciones de VMware, como contenedores, infraestructura bare metal, o NFV (funciones de red virtualizadas en las redes de los proveedores de servicios).

“Si tienen cargas de trabajo en AWS o Microsoft Azure (nubes públicas que no son VMware), pueden tener la misma consistencia en lo referente a funcionalidades y seguridad que tienen en el datacenter propio, a través de una solución de consumo por suscripción: un esquema de consumo similar al de las soluciones que se proveen desde la nube pública”, definió Stokle. “Todo con visibilidad desde la misma consola”.

En este tipo de redes, claramente, el perímetro se desdibuja. Por este motivo, el concepto de microsegmentación comienza a ganar fuerza. La idea detrás de la microsegmentación es implementar políticas de seguridad por máquina virtual, automáticamente, de modo que si el atacante lograra superar el perímetro no podría navegar de una máquina virtual a otra. En otras palabras, cada máquina virtual tiene su vigilancia perimetral propia, que se rige por reglas específicas (que viven y mueren con esa máquina virtual), reduciendo al mínimo el área vulnerable. Así, cada pieza de la aplicación se conecta solamente con el módulo que debe conectarse, utilizando los puertos previstos.

Stokle destacó que, con Fortinet, el concepto de microsegmentación puede ir un paso más allá. Los productos virtualizados de Fortinet permiten aplicar las capacidades de los Next Generation Firewalls (NGFW) a cada máquina virtual, a través de una gestión flexible y un aprovisionamiento automatizado. “Así, es posible aprovechar las capacidades de Fortigate para crear políticas que permiten encadenar servicios de manera dinámica”, precisó el especialista de VMware.

Entre los casos de uso que habilita NSX, Stokle también citó el de las redes de sucursales. “Es una solución basada en software que permite crear una red extendida entre mis sucursales y mi datacenter y la nube, con el mismo nivel de flexibilidad que estamos acostumbrados a ver en la red del datacenter con NSX”.

Cómo migrar desde el abordaje tradicional
Antes, la seguridad de un sistema se medía a través de la fortaleza de un perímetro, y toda la estrategia de seguridad estaba en función de ello. Del encuentro convocado por Fortinet y VMware surge que se hace necesario un nuevo abordaje, donde se debe asumir que dicho perímetro será vulnerado. En este nuevo contexto, lo importante es la capacidad de detección y contención del ataque, e inmediatamente de reacción defensiva.

“Los primeros que deben tomar conciencia de esto son los directorios de las empresas”, advirtió Gonzalo García, director de Fortinet para Sudamérica Gonzalo García, director de Fortinet para Sudamérica. El hecho es que la empresa “va a sufrir” durante la transición, y ese sufrimiento se verá en la necesidad de inversión adicional, nuevos costos, tiempos para desplegar las soluciones… “Después es importante la integración. No se cambia la estrategia de seguridad de una empresa de un día para el otro. No sólo es impracticable, sino incluso riesgoso. Pero todos los años hay procesos de recambio tecnológico”. El director regional sugiere que en cada uno de estos recambios se consideren tecnologías que permitan reducir la superficie de ataque y abrir el juego hacia el nuevo abordaje de seguridad. Propone la creación de una hoja de ruta que resguarde a la empresa de las compras impulsivas o reactivas.

Un entramado de seguridad
“Las empresas están adoptando cada vez más arquitecturas de nube híbrida, integrando nubes privadas locales con avanzados recursos de nube pública para aprovechar los beneficios de escala y rendimiento. En este contexto, la seguridad consistente es una prioridad. VMware y Fortinet tienen una larga relación global que proporciona seguridad avanzada virtualizada, ofreciendo a los clientes las capacidades de control de seguridad, visibilidad y segmentación necesarias para una transición sin problemas a entornos de nube híbrida”, dijo García.

Las soluciones combinadas de Fortinet y VMware permiten a las organizaciones en Argentina expandir su red local hacia la nube con conectividad segura VPN de sitio a sitio y capacidades de visibilidad del Fortinet Security Fabric para la movilidad de aplicaciones. Una aplicación que se ejecute por ejemplo en VMware vSphere tiene el mismo nivel de seguridad en toda la nube, independientemente de si la aplicación está en la instalación física o virtual.

“Soluciones como el FortiGate VM en su integración con la tecnología de VMware, permiten a los equipos de TI y Seguridad, reducir costos, incrementar la seguridad, aumentar la eficiencia y crear consistencia operacional en entornos de nube. Estamos muy contentos de trabajar con socios como Fortinet para integrar las capacidades de la tecnología de VMware y ofrecer a los clientes mayor flexibilidad, nuevos y avanzados esquemas de seguridad, y capacidad de elección en soluciones que puedan impulsar el valor del negocio”, afirmó Octavio Dure, VMware Solution Engineering Senior Manager para el Sur de América Latina.

Diseñado para ofrecer ciberseguridad integrada, amplia y automatizada en todos los tipos de ambientes, la arquitectura del Fortinet Security Fabric ofrece una mayor visibilidad y segmentación en los ágiles y flexibles entornos basados en las plataformas de virtualización de VMware. Además, permite que una nube privada basada en la plataforma de VMware se extienda de forma segura a la nube pública con conectividad de sitio a sitio, movilidad segura de aplicaciones, segmentación entre nubes y políticas de seguridad consistentes.

Publicado en Adquisiciones, app, Appliances, Argentina, cloud, datacenters, dispositivos, infraestructura, Internet, networking, nube, proveedores de servicios, riesgos, Seguridad, Software, Virtualización | Etiquetado , , , , , , , , , | Deja un comentario

El nuevo disco externo de ADATA ofrece capacidades de hasta 5TB

Disponibles en el mercado argentino, el nuevo disco rígido externo HD330 de ADATA está preparado para resistir golpes y caídas, ofreciendo capacidades desde 1TB hasta 5TB. “HD330 de ADATA es uno de nuestros discos externos de gran capacidad en la actualidad, cuenta con un diseño elegante y sofisticado que impacta,” dijo Marcela Gorini, Country Manager Cono Sur de ADATA. Y agregó: “El HD330 fue diseñado para una importante durabilidad ya posee una robusta capa de silicona que protege al dispositivo y a la información que almacena de caídas accidentales y golpes”.

La capa de silicona de alta densidad permite que la unidad absorba golpes y caídas propios del uso de los discos duros externos a lo largo de su vida útil. “Los usuarios sabrán cuando los sensores de impacto están en funcionamiento cuando el indicador lumínico se encienda en rojo. El HD330 viene en capacidades de 1 TB, 2 TB, 4 TB y 5 TB, cuenta con el software HDDtoGO con encriptación AES-256 bit, y soporta altas transferencias de datos a través de USB 3.1”, agregó Gorini.

El precio final sugerido al público del disco rígido HD330 de ADATA de 1TB es de $1.750, mientras que el de 2TB es de $2.500. El de 5TB tiene un precio sugerido de $5.000 (precios expresados en moneda argentina). ADATA cuenta en la Argentina con una tienda oficial en Mercado Libre para el usuario final, y con gran variedad de productos: http://listado.mercadolibre.com.ar/adata-tienda-oficial_Tienda_adata

Publicado en Argentina, dispositivos, Hardware | Etiquetado , , , , , , | Deja un comentario

El 67% del software instalado en las computadoras argentinas no tiene licencia

Así lo estima una encuesta de BSA/The Software Alliance. La encuesta, publicada hace unos días, revela que, en Argentina, que el 67% del software instalado en las computadoras no tenía la licencia correspondiente. Esto representa un 2% menos en comparación con el estudio anterior de BSA, publicado en 2016.

Esta tasa de uso ha sido influenciada, en parte, por importantes tendencias en curso en Argentina. Esto se debe a que, en el último tiempo, las empresas han estado educándose sobre los beneficios que trae evitar la piratería de softwares e implementar el cloud computing dentro de ellas.

Para comprender mejor las implicaciones del uso de software sin licencia, BSA publicó la “Encuesta global de software de 2018: Administración de software: deber de seguridad, oportunidad de negocio”. La encuesta cuantifica el volumen y el valor del software sin licencia instalado en computadoras personales en más de 110 países y regiones e incluye casi 23.000 respuestas de consumidores, empleados y CIO.

“Las organizaciones de todo el mundo se están perdiendo de los beneficios económicos y de seguridad que proporciona un software bien administrado —dijo Victoria Espinel, presidenta y CEO de BSA/The Software Alliance—. Las empresas deben establecer programas de administración de activos de software (Software Asset Management, SAM) para evaluar y administrar el software en sus redes. Esto, a su vez, ayuda a las organizaciones a reducir el riesgo de ciberataques debilitantes y ayuda a aumentar sus ingresos”.

La encuesta destaca que, en América Latina, el 52% del software no tiene licencia, lo cual representa una reducción de tres puntos respecto de las cifras de le encuesta de 2015. Es software no licenciado tiene un valor comercial que ronda los US$ 5.000 millones. Los países con tasas más altas incluyen Venezuela (89%, y la segunda tasa más alta a escala global), Nicaragua (81%), y El Salvador (80%). Por contraste, Brasil tiene un 46%, Colombia tiene un 48% y México un 49%, y ahora están sacando provecho de los beneficios del software licenciado. De hecho, México logró una caída de tres puntos en tu tasa de software sin licencia respecto de 2015. En Brasil, y aun cuando este país tiene la tasa más baja en la región, el valor comercial del software no licenciado representa unos US$ 1.700 millones, que es el monto más alto de la región.

En el mundo
Los hallazgos clave de la encuesta incluyen:

  • Si bien disminuyó un poco, el uso de software sin licencia todavía está muy extendido. El software sin licencia todavía se usa en todo el mundo a un ritmo alarmante y representa el 37% del software instalado en las computadoras personales, apenas un 2% menos que en 2016.
  • Los CIOs informan que el software sin licencia es cada vez más riesgoso y costoso. Los programas maliciosos del software sin licencia cuestan a las empresas de todo el mundo casi $359.000 millones al año. Los CIOs informan que evitar el pirateo de datos y otras amenazas de seguridad de los programas maliciosos es la razón principal para garantizar que sus redes tengan licencia.
  • Mejorar el cumplimiento del software ahora es un factor económico además de un deber de seguridad. Cuando las empresas toman medidas pragmáticas para mejorar su administración de software pueden aumentar sus ganancias hasta en un 11%.

Para explorar los resultados de la encuesta, incluido un desglose de los datos específicos por país, visite www.bsa.org/globalstudy.

Publicado en Argentina, CIO, cloud, Estadísticas, Informática, Seguridad, Sin categoría, Software | Deja un comentario

El Mundial en la era del streaming

El campeonato mundial de fútbol de Rusia será, sin duda, el evento más observado en los próximos días. La difusión de los partidos, las alternativas de los equipos, y demás detalles viajan (¡cómo no!) por las redes de datos que transmiten la señal digitalizada. En el mundial de Brasil 2014, 280 millones de personas vieron los partidos a través de Internet. Se espera que la cifra aumente significativamente este año, especialmente por la introducción de la tecnología VAR (Árbitro Asistente de Video) para repetir jugadas no muy claras al ojo humano. Esto incluye la tecnología de reconocimiento de gol que determinará en una fracción de segundo si el balón cruzó la meta. También será la primera vez que la FIFA proporcionará datos de posicionamiento en tiempo real y videos a los analistas de cada equipo. Esto les permitirá hacer observaciones más sencillas que pueden compartir con el equipo técnico en la cancha.

Cabe preguntarse cómo es ese proceso en su totalidad… En un principio, las señales de varias cámaras distribuidas por puntos estratégicos del estadio (el campo de juego, las tribunas, detrás del arco, drones) se integran en el “camión de exteriores” junto a datos de los jugadores, gráficos de la formación de los equipos —incluyendo su estrategia 4-3-3, 4-4-2 u otra—, los comentarios de los diversos locutores y hasta los replays de jugadas específicas. Eso forma una primera señal, elaborada bajo supervisión del director de cámaras, que alimenta los transmisores satelitales o de fibra óptica vinculadas con el centro de producción. 

En el centro de producción se insertan publicidades, logos y demás accesorios para formar el “programa” que será finalmente emitido… ¿al aire? ¡No! El contenido es hoy entregado a una Red de Distribución de Contenidos (Content Delivery Network) que adapta la señal a los diferentes formatos: televisión de alta definición o estándar, PC, tablets, celulares, formulando los diversos formatos (360, 480, 540, 576, 720p HD), relación de aspecto 4:3 o 16:9, adaptando los bitrates al receptor, incluso agregando estadísticas del partido en tiempo real como cantidad de tiros al arco o de tarjetas amarillas. Hoy en día, a la transmisión del evento se suman los comentarios de los usuarios, tweets, y otros contenidos que nunca antes se habían tenido en consideración.

Las CDN no tienen latencia (esa demora molesta que ocurre hasta que el contenido aparece en pantalla). Este factor se ve afectado por la distancia física entre el usuario y el servidor de alojamiento. Para mejorar la velocidad y el rendimiento de la representación del sitio web, una CDN almacena una versión en caché de su contenido en múltiples ubicaciones geográficas (puntos de presencia o PoP). Cada PoP contiene una cantidad de servidores de almacenamiento en caché responsables de la entrega de contenido a los visitantes que se encuentren cerca de él. Esto es mucho más rápido que tener las solicitudes del visitante, y sus respuestas, viajando a todo lo ancho de la Web.

Existen dos estructuras típicas para las CDN: dispersa (gran cantidad de PoP de capacidad media y baja) o consolidada (menor cantidad de PoP pero con mayor capacidad cada uno, en regiones geográficas selectas).

El enfoque de topología dispersa se basa en la proximidad física óptima, y tiene menos exigencias de recursos de conectividad, aunque es un desafío su administración. Mientras que el enfoque consolidado posee más resistencia a los ataques cibernéticos y administración más sencilla, pero no trabaja bien si los recursos de conectividad son limitados.

Rusia 2018 es el primer mundial que va transmitir sus partidos en 4k HDR. Por otro lado, existirá la posibilidad de visualizar los juegos en realidad virtual en una experiencia de 360° si se solicita. También, el balón de este año, conocido como Telstar 18, tiene insertado un chip NFC (similar al Bluetooth pero más rápido). La mayoría de los teléfonos Android y los iPhone desde el 7 a más recientes pueden recibir datos exclusivos del producto, contenido de Adidas, y algunos desafíos. Toda una parafernalia de datos tecnológicos que serán distribuidos con los recursos antedichos.

Recuerde, cuando esa jugada que usted quiere revivir tarde en cargar… ¡Es porque hay mucho trabajo detrás de ella!

Imagen | Publicado el por | Etiquetado , , , , , , , , , , | Deja un comentario

Nace YPF Luz, con US$ 3.000 millones de inversión bajo el brazo

La semana pasada YPF presentó en sociedad YPF Luz, que aspira a convertirse en un par de años en el tercer generador de energía eléctrica de la Argentina. “Estamos muy entusiasmados. Hoy nace una empresa con la visión de generar una nueva energía para los argentinos. Buscamos liderar la transformación energética del país, desarrollando todo el potencial de nuestros recursos para el bienestar de los argentinos”, anunció Miguel Gutiérrez, presidente de YPF, en la Torre YPF Puerto Madero. 

El operador ya está invirtiendo unos US$ 1.000 millones, a los que proyecta agregar unos US$ 2000 millones para proyectos de energía renovables y térmicos. “Estamos enfocados en desarrollar todos los recursos energéticos disponibles con la tecnología actual, tanto los que provienen de hidrocarburos convencionales y no convencionales, como nuestro gran potencial en generación de energía eléctrica de fuentes renovables y no renovables”, explicó Gutiérrez. Del encuentro también participó el presidente de YPF Luz y vicepresidente ejecutivo de Gas y Energía, Marcos Browne, y el CEO de YPF Luz, Martín Mandarano. 

“Queremos ser una compañía que transforma energía y la pone a disposición de los argentinos. Trabajamos mucho para llegar hasta acá. Estamos muy orgullosos. Seguimos buscando oportunidades y creciendo para alcanzar el objetivo de capacidad de generación total de 2750 MW”, comentó Browne, quien presentó a Mandarano como “el capitán del barco YPF Luz”.

YPF Luz tiene una capacidad operativa de generación de más de 1800 MW y, a través de un ambicioso plan de inversiones, proyecta duplicarla en los próximos años. Recientemente, la empresa sumó a General Electric como socio, que con su know-how técnico permitirá potenciar y acelerar los proyectos de generación eléctrica. YPF LUZ tiene en operación un complejo de generación en Tucumán (1103 MW), dos centrales térmicas en Neuquén (228 MW), una central de cogeneración en La Plata (128 MW) y la central Dock Sud (348 MW). 

Hoy la compañía emplea a más 270 personas en forma directa y tiene operaciones distribuidas en todo el país: Tucumán, Neuquén y La Plata con generación térmica y con energía eólica en Chubut y Santa Cruz.

Publicado en Argentina, energía, Gobierno, Historia, industria argentina, ingeniería, mercado, proveedores de servicios, YPF | Etiquetado , , , , , , , , , , , , | Deja un comentario

Código abierto: Microsoft acuerda la adquisición de GitHub

Chris Wanstrath, CEO y cofundador de Github; Satya Nadella, CEO de Microsoft; y Nat Friedman, vicepresidente corporativo de Servicios de Desarrollo.

Más de 28 millones de desarrolladores de software utilizan GitHub: una plataforma colaborativa donde pueden discutir y resolver problemas, e impulsar proyectos, particularmente los basados en código abierto. Ahora, Microsoft está dispuesta a pagar unos US$ 7.500 millones para adquirir la popular plataforma. ¿Qué piensan los desarrolladores?

El lunes pasado Microsoft acordó la compra de GitHub en US$ 7.500 millones en acciones: un valor que puede parecer excesivo (teniendo en cuenta además el hecho de que Microsoft bien podría pagar esa cifra sin comprometer sus acciones), pero habla a las claras de lo estratégico de la movida. Plataforma como GitHub y sus capacidades de control de versiones y desarrollo colaborativo de software, son un componente importante (algunos piensan que esencial) del ecosistema DevOps. Este movimiento está cambiándole la cara al desarrollo de software desde hace más de un lustro, promoviendo en el interior de las organizaciones una interacción más aceitada entre los profesionales de Desarrollo, Operaciones y Aseguramiento de la Calidad.

El CEO de Microsoft, Satya Nadella, explicó que su corporación es una compañía “developer first”, y que uniendo fuerzas con GitHub se fortalecerá el compromiso con la libertad de los desarrolladores, la apertura y la innovación. “Reconocemos la responsabilidad que asumimos con la comunidad a partir de este acuerdo, y haremos nuestro mejor esfuerzo para habilitar a cada desarrollador para que construya, innove y resuelva los desafíos más acuciantes”.

A pesar de que este Microsoft no es el de hace una década y pico, que demonizaba el software de código abierto —y de hecho la corporación hoy es miembro activo de la comunidad, y ha establecido alianzas con numerosos jugadores del Open Source—, lo cierto es que el anuncio provocó un terremoto en algunos círculos relacionados con DevOps. Para entender el grado de reserva que muchos desarrolladores tienen, basta con ver lo que les está sucediendo a los competidores de GitHub. El sitio TechTarget dio cuenta de que GitLab vio una gran cantidad de usuarios que intentaron migrar repositorios de código de GitHub una vez que Microsoft confirmó el acuerdo el 4 de junio. El éxodo masivo de unos 250,000 refugiados de GitHub causó que el servicio de GitLab se bloqueara y experimentase interrupciones.

Con todo, el grueso de los analistas del mercado prefiere exhibir un cauteloso optimismo sobre las consecuencias de la adquisición. Algunos analistas señalan que LinkedIn, adquirido por Microsoft en 2016, ha permanecido sin mayores alteraciones después de la anexión. Por otro lado, Microsoft es el contribuyente individual más grande que tiene GitHub. Según TechTarget, el año pasado, cerca de 1.300 empleados de la compañía metieron activamente código en 825 repositorios importantes en GitHub, comparado con los 900 empleados de Google que contribuyeron a unos 1.100 repositorios, y los 134 empleados de Amazon que metieron código en unos 158 proyectos importantes. Lo que es más: hoy Microsoft depende de GitHub para toda su actividad de código abierto, dado que dio de baja su propio sitio para compartir código fuente (CodePlex) el año pasado., y eligió Git como el sistema de control de versiones para los desarrollos de Windows.

El vicepresidente corporativo de Microsoft, Nat Friedman, que fundó la empresa de desarrollo de software para móviles Xamarin y es un veterano del código abierto, asumirá como CEO de GitHub CEO. El actual CEO de GitHub, Chris Wanstrath, será Microsoft technical fellow, reportando al vicepresidente ejecutivo Scott Guthrie, para trabajar en iniciativas estratégicas de software. En referencia al contexto de la adquisición y la vocación Open Source de Microsoft, puede leer el post de Satya Nadella en el blog de la compañía.

En buena medida, el éxito de esta operación dependerá de cuán atractivas terminen resultando las plataformas de Microsoft para la comunidad de código abierto, en particular Azure. Resulta claro que, detrás de esta adquisición está la decisión de Microsoft de impulsar los entornos de nube hacia nuevos mercados.

Publicado en Adquisiciones, app, mercado, nube, Nuevos modelos de negocios, Open Source, proveedores de servicios, Software, talentos | Etiquetado , , , , , , , , , , | Deja un comentario

20000 datos en viaje submarino

Microsoft está ensayando implementar centros de datos subacuáticos para enfriarlos en forma similar a los submarinos militares.

Hasta el 20% del gasto de energía de los centros de datos o “granjas de servidores”, se consume en la disipación de grandes cantidades de calor generadas por estos equipos informáticos. El “Proyecto Natick”, avalado por Microsoft, es un desarrollo en conjunto con Naval Group, una empresa de 400 años de antigüedad con sede en Francia, dedicada a la ingeniería, fabricación y mantenimiento de barcos y submarinos de grado militar, así como tecnologías de energía marina. La idea general es sencilla: utilizar el agua de mar para refrigerar una estructura hermética sumergida en el océano a unos 35 metros de profundidad, con hasta 12 bastidores de servidores instalados dentro. Teniendo en cuenta que más de la mitad de la población mundial vive a unos 200 kilómetros de la costa, un “datacenter costero” facilitaría una conectividad de red rápida y fluida, allanando el camino a las actividades impulsadas por tecnologías de información, inteligencia artificial, y demás, todo ello sin interferir con el paisaje y utilizando eventualmente energía eólica y mareomotriz para su funcionamiento autónomo.

Utilizar aproximadamente las dimensiones de un contenedor estándar, de los que se ven habitualmente en barcos, trenes y camiones, para facilitar el suministro y transporte fue clave en el desarrollo del prototipo. Este último se revisó y selló en Francia, luego se llevó en camiones a Escocia, transportándose finalmente por barco hasta el punto donde descansará en el fondo del mar. Alimentado por un cable eléctrico/ óptico, el conjunto de servidores trabaja en forma autónoma pero controlado remotamente por un equipo de ingenieros, tal como sucede hoy en día con datacenters convencionales. Al no necesitar oxígeno para su funcionamiento, el prototipo trabaja al vacío por lo que presentaría, en teoría, una menor tasa de fallas. Y mejor que así sea: es imposible reparar algo sin sacar todo el conjunto a la superficie.

Toda la experiencia adquirida en este proyecto, desde el primer tornillo hasta el recupero de la estructura sumergida al finalizar las pruebas, servirá para analizar y medir las posibilidades, dificultades y conveniencias de tener centros de datos “tapados por el agua”… literalmente hablando.

Publicado en datacenters, energía, Hardware, infraestructurqa, ingeniería, nube, servers, Sin categoría, Telecomunicaciones | Etiquetado , , , , , , , , , , , , , , | Deja un comentario