El Meridiani Planum es una llanura ecuatorial marciana situada al oeste del Sinus Meridiani. En 2004, el Opportunity aterrizó en el lugar para estudiar una cosa que había intrigado a los científicos desde hacía muchos años: la hematita. En la Tierra, este óxido de hierro aparece casi en exclusiva asociado al agua líquida. Y, claro, la pregunta era evidente ¿qué hacían unas (cantidades desproporcionadas de) hematitas en un sitio (tan extremadamente seco) como Marte?, por lo tanto, surge la interrogante, ¿Donde estara el agua que genero esas grandes cantidades de hematita?
Sin embargo, la mayoría de personas no conocemos el Meridiani Planum por eso, sino por algo mucho más prosaico: es una de las enormes planicies que Mark Watney (Matt Damon) tenía que atravesar en la película ‘El Marciano’. El único problema es que, evidentemente, las imágenes de la película no fueron tomadas en Marte, sino en Uadi Rum (Jordania) donde Lawrence de Arabia fijó uno de sus campamentos base. Afortunadamente, tenemos más formas de ver los poderosísimos paisajes del ecuador marciano.
Marte y mucho más en 8k
Seán Doran es ya un viejo conocido de todos los que tenemos pasión por el espacio. Investigador de la NASA y la ESA,, en su canal de youtube tiene verdaderas joyas multimedia en las que utiliza (y exprime) imágenes abiertas de distintos proyectos espaciales. En el caso que nos ocupa, son imágenes de la HiRISE, la cámara del Mars Reconnaissance Orbiter de la NASA y cubren un kilómetro de la superficie marciana aproximadamente.
Pero hay mucho más: el sol, tormentas de arena o los incendios de Australia son algunos de sus últimos vídeos, pero como decía tiene auténticas maravillas. Nunca está de más dedicar un rato a sorprendernos con la belleza de la Tierra, el Sistema Solar y la profundidad del Espacio.
El itinerario de ‘El Marciano’
Por si te ha quedado la duda de cuál fue exactamente el itinerario que Mark Watney «siguió» en el libro y la película, te dejo la infografía superior. Es muy útil para entender topográficamente los desafíos del viaje y, sobre todo, para recrearnos en la exactitud científica con la que Andy Weir nos deleitó en este (casi) clásico de la ciencia ficción dura.
Este jueves 20 de febrero, a través de Satya Nadella, CEO de Microsoft, anunció la iniciativa «Innovar por México», con la cual se espera establecer una nueva región de centro de datos en la nube de México acelerando de esta manera la transformación digital del país.
La inversión de 1.100 millones de dólares deMicrosoft se realizará por cinco años y tiene como principal objetivo la creación de una región de datos en la nube en México, además, de un programa de educación y capacitación, se incorporarán soluciones de Inteligencia Artificial a diversos proyectos y se construirá un Centro de Datos de la Nube en México.
El nuevo Centro de Datos de Nube de la región brindará servicios escalables y seguros en todo el país, y beneficiará a empresas pequeñas, medianas y grandes, así como a emprendimientos locales.
Microsoft ofrece servicio de nube inteligente en 22 países y con la incorporación de una nueva región de centro de datos en la nube en México, se incrementará en 58 las regiones que integran la nube global de la multinacional estadounidense.
Esta inversión se enmarca en la iniciativa de utilizar la inteligencia artificial para crear impacto social promovida por el gigante tecnológico, que tiene previsto el proyecto “Inteligencia Artificial para el Monitoreo de tiburones pelágicos en el océano Pacífico mexicano”.
También fungirá como un recurso para digitalizar y apoyar a entidades públicas por medio de soluciones como Microsoft Azure, Office 365, Dynamics 365 y, más adelante, Power Platform.
Con este desarrollo, Microsoft ampliará su infraestructura de Nube global a 57 regiones, en 22 países.
Aplicación de Inteligencia
Artificial
Será dirigido por la organización ambiental México Azul junto con estudiantes de la universidad La Salle.
Los responsables de la
iniciativa:
«Recibirán una inversión para crear un software de código abierto que identificará fotográficamente a los tiburones de cuatro especies pelágicas en peligro de extinción, en el Océano Pacífico mexicano, usando inteligencia artificial y Machine Learning automático con el fin de crear un proceso más eficiente que ayude a estimar los parámetros de población y así obtener mejores políticas de conservación marina», destaca Microsoft.
Con esto se espera generar
datos que mejoren el monitoreo y la conservación de estas especies en México.
Educación digital en México
“Habilidades para el futuro” es otro de los proyectos de Microsoft para apoyar a los estudiantes a desarrollar habilidades tecnológicas.
Como parte de esta iniciativa, Microsoft construirá tres laboratorios con tecnología de punta en tres universidades que serán elegidas por la Secretaría de Educación y que estarán ubicados en el Norte, Centro y Sur del país.
«El objetivo principal de los Laboratorios de Microsoft es ofrecer soluciones tecnológicas a profesores, investigadores y estudiantes de nivel superior para fomentar un mayor entendimiento de los conocimientos obtenidos y reforzar las habilidades requeridas por la sociedad y el mercado laboral.
Los profesores,
estudiantes, investigadores y personal administrativo de las universidades que
alberguen los laboratorios, tendrán la oportunidad de crear un camino de
aprendizaje personalizado que cubra sus necesidades e intereses», confirma el
comunicado.
Un administrador de servidores es un experto capacitado en la administración, y mantenimiento de los equipos de uso exclusivo para guardar datos, a estos los conocemos como servidores.
La función que representan estos equipos es muy importante pues en ellos se guardan grandes cantidades de datos y un administrador, debido a esto es parte fundamental para el crecimiento de los negocios.
Esta carrera puede ser difícil, y presentar ciertos desafíos, pero a la vez puede ser grata.
Debe ser una persona responsable en cuanto al mantenimiento, operación exitosa de uno o más red de servidores.
En esta área de trabajo hay muchas funciones, entre las cuales están: planificar, instalar, dar soporte y mantenimiento a los servidores.
En las empresas hay el servidor centralizado, por ello es preciso que su trabajo sea perfecto, también que sea garantizado su funcionamiento y su seguridad.
Lo básico e indispensable es siempre tener copias de seguridad.
Entre otras de sus funciones podemos conseguir el de gestionar proyectos con sistemas relacionados, supervisión, capacitación del personal a fin, reparación y consultas de soporte técnico.
Tendrás que ser capaz de explicar a otros el uso y funciones de las computadoras, de forma que te entiendan personas sin conocimientos previos.
En nuestra web encontraras todos los cursos relacionados con estas carreras, cursos complementarios, etc.
No solo encontraras el curso gratuito de administración de servidores sino una amplia lista de curso como los que te muestro a continuación, por supuesto que aquí te dejo el enlace que te lleva directo al sitio web.
En el sitio podrás conseguir información mucho más detallada y además los sencillos pasos para empezar los cursos.
Hace algunos años los juegos flash gozaron de gran popularidad. Sus gráficos eran lo de menos, ya que eran simples, así como divertidos. Y lo mejor, eran gratis y online.
Lo que ahora podría ser los juegos móviles.
Títulos como Pokémon Go, Clash of Clans, Candy Crush o Minecraft cuentan con adeptos y jugadores que pasan horas delante de su smartphone.
Hace unos cuantos años, antes de que los smartphones se popularizaran, los juegos más exitosos eran Flash.
Los juegos Flash eran sencillas aplicaciones programadas en AdobeFlash que no destacaban precisamente por sus gráficos sino porque imitaban o se inspiraban en clásicos de las recreativas y que eran realmente adictivos, algunos incluso dieron el salto a iPhone y Android.
Años de entretenimiento
Eran gratuitos, no necesitabas descargarlos y sólo necesitaba un navegador web con AdobeFlash Player instalado, que hasta hace un tiempo era lo más habitual.
Es más, Google Chrome desde sus primeras versiones integraba Flash.
Si ya te había aburrdo el solitario o minas de Windows, sólo tenías que buscar “juegos flash” en Google y encontraba decenas de sitios web especializados en recopilar y crear juegos de este tipo.
Horas y horas de diversión gratuita sin importar que pc tuvieras.
Pero como todo llega a su fin. Flash fue una tecnología muy popular en la Web de los 90 y más adelante en la creación de aplicaciones y juegos online.
Para los que no lo saben, durante años, el reproductor de YouTube corría en Flash.
El reinado de Flash tocado por dos razones
La primera, el iPhone. Apple intentó que Flash fuera parte de su sistema operativo iOS, pero el alto consumo en recursos y batería lo hacía inviable, cual fue la solución a esto, dar la espalda a Flash a contracorriente de lo que hacía el resto de compañías y fabricantes de tecnología.
La segunda razón por la que Flash perdió su fama es HTML 5, una versión mejorada de HTML que permite crear aplicaciones iguales o mejores a las creadas con Flash y, además, con un menor consumo de recursos, ideal para cualquier dispositivo con batería incorporada.
Finalmente, la propia empresa dueña de Flash, Adobe, anunció que abandonaba Flash en favor de otras soluciones más propias del ecosistema tecnológico actual.
Por su parte, Google, aunque todavía integra Flash en su navegador Google Chrome, anunció a finales del año pasado que dejaba de indexar páginas web en Flash. Con esto le dieron el tiro de gracias a Flash.
Este repaso a los juegos Flash y su fin como tecnología dominante viene a propósito de un proyecto liderado por BlueMaxima y que recibe el nombre de Flashpoint. Su objetivo, preservar más de 38.000 juegos Flash, además de 2.400 animaciones Flash. Y es que ante el final de Flash en la Web, más pronto que tarde, las páginas que hoy almacenan contenido Flash dejarán de estar disponibles, algo que vio en su momento el proyecto Internet Archive, de ahí su programa Wayback Machine que indexa páginas populares para su preservación de cara al futuro.
Así, en BlueMaxima’s Flashpoint encontrarás algunos de los juegos Flash más populares y podrá recordar viejos tiempos o descubrir con qué nos divertíamos antes de que llegaran los juegos de App Store y Google Play.
Una, de 241 GB, que incluye todo el contenido almacenado.
En segundo lugar, una versión de 296 MB que sólo descarga el contenido Flash que quiera reproducir.
En principio, Flashpoint sólo es compatible con Windows 7 en adelante, si bien seguramente puedas usar en macOS o Linux vía PlayOnLinux o similares o bien accediendo al contenido Flash almacenado.
Junto a los juegos Flash, también se incluyen contenido ActiveX, Java, Shockwave, Unity, Silverlight, etc.
En definitiva, una colección de varios gigabytes de diversión para guardar en la memoria de su computador y así jugar cuando se quede sin conexión y no sepa qué hacer.
Con el paso del tiempo la tecnología ha ido avanzando rápidamente, las aplicaciones, los correos, redes sociales, etc.
Todo esto funciona bajo el cómputo en la nube, para operar la nube se requiere de profesionales calificados que comprendan su funcionamiento y su arquitectura de la información.
Estos profesionales deben contar con conocimientos básicos de administración de bases de datos, administración de servidores, redes y desarrollo de aplicaciones, que transforme el concepto de tecnologías de la información a uno en el que el cómputo en la nube sea el protagonista.
En este curso aprenderás:
Como la nube se hizo tan llamativa para los inversionistas
Como se conforman los centros de datos, iaas, paas y saas
Administración de servidores
Bases de datos
Como realizar la administración de la nube
Transforma la nube en un modelo de negocios
En este curso gratuito de administrador de la nube, aprenderás a manejar efectivamente los accesos a la nube para cada uno de los usuarios en diferentes ámbitos. También podrás verificar el acceso a cada instancia de la nube y poder comunicar las actividades de la misma.
Aprenderás a monitorear el sistema y configurar las alarmas cuando haya accesos no autorizados por medio de correos electrónicos o por mensajes SMS
HTTP/3, la nueva versión de uno de los protocolos más importantes para el funcionamiento de internet. Se trata de un protocolo que lleva ya unos años desarrollándose, y que promete llegar a partir de este año para ofrecer unas cargas más rápidas en todo internet gracias a algunos cambios importantes en la manera en la que se intercambian los datos en la red.
Como para entender la importancia de este cambio hay que saber un poco cómo funciona internet en general. Primero, te diremos qué es y cómo ha evolucionado el protocolo HTTP con sus diferentes versiones. Luego, te intentaremos explicar de la forma más sencilla posible qué es el HTTP/3 y los cambios que propone, y terminaremos dándote una idea de los sitios en los que ya se ha implementado.
Para entender todo esto, te vamos a explicar varios conceptos que pueden llegar a ser densos y difícil de entender para los usuarios de a pie. Por eso, vamos a intentar no centrarnos tanto en los tecnicismos para intentar explicar las cosas de una manera más fácil de entender.
Qué es el HTTP
Las comunicaciones de internet funcionan a través de protocolos. Por una parte tienes el Protocolo de Internet, Internet Protocol o IP en inglés. Este es que que le otorga a cada dispositivo que se conecta a internet una dirección con la que identificarse en la red. Nadie puede navegar por la red sin una dirección IP, y cuando escribes Azulweb.net, lo que hace tu navegador es traducir ese texto a una dirección IP para conectar con el servidor de la web.
Y otro igualmente importante es el Protocolo de Transferencia de Hipertexto, Hypertext Transfer Protocol o HTTP en inglés. Es el protocolo que utilizan los navegadores para comunicarse con los servidores web, y el que deben seguir el resto de software perteneciente a la arquitectura de la web, como los servidores, proxies y los mencionados navegadores.
También es el que define la sintaxis y la semántica que utilizan los elementos de software de la arquitectura web para comunicarse. Además, se usa también para la transferencia de imágenes y el resto de elementos que componen una web, desde el servidor al navegador, y en las apps para comunicarse con las APIs.
De dónde vienen los elementos que ves en una página web
Este protocolo sigue el modelo de cliente-servidor. Esto quiere decir que cuando tú estableces una conexión, realizas peticiones a un servidor para que este te muestre el contenido de la página. Este contenido se mostrará en tu navegador usando el código HTML, que es el estandarizado para colocar los elementos que hay en cada web, pero para cargar estos elementos, te llegarán a través de la conexión establecida.
En esta imagen puedes ver los diferentes campos que tiene una petición de HTTP. El primero es el método que define el tipo de operación que se quiere realizar, y que suele ser un verbo como GET (obtener) o POST, o un nombre como OPTIONS o HEAD.
A la derecha viene la dirección del recurso que se ha pedido, o la URL de este recurso. A esta dirección se le quitan los elementos obvios del contexto, como el http:// inicial, el puerto o el nombre del dominio. Le acompañan la versión del protocolo HTTP, y debajo ya tienes las cabeceras opcionales que aportan información adicional a los servidores. Si se usan métodos como POST, también puede haber un cuerpo de mensaje para enviar información al servidor.
Cómo ha evolucionado el HTTP
El HTTP fue desarrollado durante años por el World Wide Web Consortium y la Internet Engineering Task Force (IETF). La primera versión fue la 0.9 lanzada en 1991, que fue mejorada con el HTTP/1.0 lanzado en 1996, y culminada en 1999 con el lanzamiento de la versión 1.1.
Llegados a este punto, puedes entender que el Internet y las webs de 1999 no tienen nada que ver con lo que puedes encontrarte hoy en día en la red. Es por eso, que a lo largo de los años el protocolo también ha tenido que actualizarse. Al hacerlo no ha habido grandes cambios, pero sí se ha perfeccionado la manera en la que se transfieren los datos en la red.
En 2012 se publicaron los primeros borradores de la nueva versión mejorada de HTTP, que acabó lanzándose oficialmente en mayo del 2015 con el nombre HTTP/2. Este protocolo permitió enviar más de un recurso en una sola conexión de TCP, lo que hizo que se redujese el número de peticiones para cargar una web. En pocas palabras, se aceleró la carga de las webs al permitir que la transferencia de elementos fuera más rápida.
Para la próxima versión no tendremos que esperar tanto, ya que tras años de trabajo, en 2018 se le da nombre al que será el próximo paso en la cadena evolutiva. Es el HTTP/3 que debería llegar en 2020 según su documentación oficial para conseguir un internet todavía más rápido que el que tenemos hasta ahora.
Qué es el HTTP/3 y qué es lo que cambia
HTTP/3, y tiene previsto llegar oficialmente a lo largo de 2020, es el nombre oficial de la próxima versión de protocolo de comunicaciones que permite las transferencias en la web. Esta nueva versión tiene un cambio muy importante, pues será la que deje de utilizar por primera vez el protocolo TCP que hasta ahora se ha venido utilizando en el HTTP, y lo sustituirá un nuevo protocolo llamado QUIC, e inicialmente desarrollado por Jim Roskind en Google, aunque al ser un proyecto de código abierto el desarrollo ha sido conjunto por la comunidad.
El TCP es un protocolo desarrollado en los años 70 del pasado siglo, y desde entonces forma parte del protocolo IP. Es el encargado para crear conexiones entre los ordenadores, a través de las cuales se envía después el flujo de datos. Este protocolo es utilizado por otros protocolos como el HTTP, SMTP, SSH y FTP, y es el encargado de garantizar que los datos se entregan sin errores en el destino previsto, y en el mismo orden en el que fueron transmitidos.
Para realizar conexiones, este protocolo realiza una conexión de múltiples pasos entre cliente y servidor, asegurando el orden de los paquetes, con confirmaciones paquete a paquete recibido, y retransmitiendo si es necesario los paquetes perdidos. También se realizan comprobaciones de la computación por si hubiera errores. Esto quiere decir que cuando se envía un paquete de datos, el receptor y el emisor intercambian información de forma constante para asegurarse de que todo se está haciendo correctamente.
Esto hace del TCP un protocolo seguro que lleva siendo utilizado desde el principio de los tiempos (de Internet), pero también tiene un aspecto negativo. Y es que supone una carga adicional en las transmisiones por el intercambio continuo de datos, provocando cuellos de botella que hacen que una web pueda tardar en cargarse algunos segundos aunque las peticiones se realicen en milisegundos.
El sustituto para este protocolo en HTTP/3 será QUIC, siglas que significan Quick UDP Internet Connections. En castellano, significa Conexiones UDP Rápidas en Internet. Está basado en otro viejo protocolo de los años 80 llamado UDP, y que a diferencia del TCP no requiere del intercambio continuo de información entre el emisor y el receptor del paquete de información. El protocolo de transferencia ya no se encarga de la integridad de los datos, ese peso recaerá de cada aplicación que lo use.
Vamos, que con UDP los paquetes se envían al receptor sin más, y el emisor no espera a que el receptor le diga si han llegado o no: los sigue enviando pase lo que pase, lo que hace que no haya garantías de que el receptor está recibiendo todos los paquetes. El protocolo se usa con frecuencia en emisiones en broadcasts e incluso en juego online, y Google ya ha integrado soporte en Chrome.
Otra de las características clave de QUIC es que está cifrado por defecto con TLS 1.3. La propia estructura de QUIC hace que plantee algún que otro quebradero de cabeza a las operadoras, ya que hace imposible tratar de estimar cosas como el RTT (Round Trip Time), un parámetro con la que las operadoras pueden analizar y evaluar la calidad y prestaciones de sus redes.
Qué supone cambiar TCP por QUIC
En esta tabla de arriba tienes una comparativa en la que ves cómo son las conexiones con el TCP normal, el TCP con el cifrado TLS para proteger la privacidad de los datos, y QUIC. La conexión se deshace de las conexiones continuas con las que emisor y receptor se aseguran de que los datos se envían y reciben correctamente, y también se elimina el intercambio de datos con el que establecer el cifrado TLS. QUIC simplemente envía los datos.
Este cambio mejorará la latencia de la conexión con menos intercambio de datos entre emisor y receptor. También tiene soporte para varias conexiones multiplexadas, lo que significa que se combinan dos o más señales para transmitirlas por un único medio de transmisión, algo que ahorra tiempo reduciendo el número de medios de transmisión, y se ahorrará tiempo enviando los datos cifrados por defecto.
Además de esto, QUIC introduce secuencias con la posibilidad de otorgar prioridades en la capa de transporte. Las secuencias QUIC se entregan de forma independiente, lo que quiere decir que en la mayoría de casos, si en una secuencia se pierde algún paquete esto no afectará a las demás. Además, si se pierde algún paquete serán las propias aplicaciones las que se encarguen de volver a solicitarlo.
¿Y por qué lanzar una nueva versión HTTP/3 en vez de adaptar HTTP/2 a QUIC? Si bien es verdad que HTTP/2 también tiene función de miltiplexación de flujo, y que algunas de sus características pueden ser asignadas a QUIC con relativa facilidad, hay partes de su código que dependen de cómo funciona el protocolo TCP.
Por ejemplo, el esquema de compresión de encabezado de HTTP/2 tiene cierta dependencia al orden en el que se intercambian solicitudes y las respuestas HTTP en una conexión. QUIC no garantiza el orden entre las diferentes secuencias, por lo que en HTTP/3 se han tenido que hacer cambios en el encabezado HTTP. También se han eliminado algunas características de HTTP/2 que QUIC es capaz de ofrecer por si mismo, por lo que se quitaron del código de HTTP/3 para simplificarlo y eliminar redundancias.
En las pruebas iniciales, el Google Cloud Platform introdujo soporte paraQUIC en 2018 para la carga de determinados elementos, y comunicó que los tiempos de carga de las páginas mejoraron en un 8% a nivel global, y en hasta un 13% en regiones de latencia más altas. Todavía habrá que esperar hasta que se termine de implementar este protocolo para ver hasta qué punto llegan a mejorar las cargas de webs en términos generales.
Dónde se ha implementado ya el HTTP/3
Vale, toda esta teoría está muy bien, ¿pero qué pasa con la práctica? ¿Dónde está ya implementado el HTTP/3? Pues tras llevar haciendo pruebas desde mediados de 2019, tanto Firefox como Chrome han implementado ya el nuevo protocolo en las versiones estables del navegador. Chrome lo tiene desde la build 79 lanzada en diciembre, y Firefox desde su build 72 de enero de este 2020.
También Cloudflare ha implementado la compatibilidad de este protocolo. Y esta empresa es muy importante, porque actúa como intermediaria entre el cliente y el servidor, y son muchas las empresas que han apostado por sus servicios a nivel mundial, tanto que si Cloudflare tose, a internet le sube la fiebre. Una caída de este servicio hace que miles de webs dejen de funcionar, y por eso es importante que ya esté preparada.
También se implementa en librerías de código abierto pertenecientes a grandes empresas, y que sirven tanto para los servicios de estas empresas como para los desarrolladores que las utilicen. Entre ellas están quiche de Cloudflare, neqo de Mozilla, proxygen de Facebook, las del navegador Chromium en el que se basan Chrome, Edge y muchos otros, o lsquic de LiteSpeed.
En cualquier caso, lo que debes tener claro es que el salto al HTTP/3 no va a ser algo que vayas a notar demasiado a nivel de usuario. Las empresas de internet se están preparando para él, por lo que cuando sea lanzado oficialmente durante este año no habrá ningún tipo de apagón, simplemente poco a poco veremos cómo algunos servicios adaptados empezarán a cargar un poco más rápido.
No obstante, de la misma manera en que este territorio virtual encierra todo un cumulo de material nocivo para la comunidad online, existe un dominio que, si bien no posee el mismo tipo de información, comparte su peligrosidad con ésta por los datos que presenta y que, en manos equivocadas, podría representar un escenario de alto riesgo para un conglomerado de empresas.
Corp.com
Se tata de Corp.com, un sitio web adquirido a mediados de los 90 por Mike O’Connor, un empresario, quien en esa época había instaurado su propio proveedor de servicios de internet (ISP por sus siglas en inglés) denominado Go-fast.net.
A través de su ISP Mike se apropió activamente de nombres de dominio básicos, tales como place.com, pub.com, bar.com y por supuesto Corp.com, el cual, ha decidido poner en subasta al publico por un valor de 1,7 millones de dólares.
Pasaría mucho tiempo antes de que Mike tomara la decisión de poner en venta este dominio.
En declaraciones ofrecidas al blog Krebs On Security O’Connor expresó que, la persona que obtenga propiedad sobre este sitio, tendrá acceso a un increíble volumen de información sensible compuesta por contraseñas, direcciones de correo electrónico, así como otros datos, correspondientes a las principales compañías del mundo.
1,7 millones de dolares
De ahí que esto constituya un argumento entendible del por qué O’Connor establece 1,7 millones de dólares como una cifra inicial justa por la venta de Corp.com de la cual espera que sea Microsoft quien al final se quede con la propiedad del dominio.
Esto, debido a que teme que este pueda ser adquirido por alguien aliado a una organización de cibercriminales dedicados a la desestabilización de corporaciones occidentales.
Dentro de una red corporativa interna, cuando un grupo de computadoras están conectadas entre sí pero deben mantener contacto con un dispositivo ajeno a esa red corporativa esta debe validarlo a través de Active Directory, un servicio propietario de Windows que, en sus primeras versiones, utilizaba la palabra corp para definir la ruta predeterminada usada en la validación.
Muchas de estas empresas no se tomaron la molestia de personalizar esta configuración y ahora sus datos podrían estar a punto de ser accedidos por un intruso indeseado en caso de que no se cumpla el deseo de O’Connor de que su sitio Corp.com pase a manos de Microsoft.
Recientemente la La NASA ha publicado una serie de fotografías tomadas por la sonda New horizon en las cuales se aprecia un asteroide completamente inusual.
Arrokoth, asi es como se le ha bautizado, una roca en cuya superficie se encontraron una serie de rocas bastante diferentes a las que los astrónomos conocen hasta ahora.
Más allá del octavo planeta del Sistema Solar, Neptuno, se encuentra el Cinturón de Kuiper, una zona del cosmos donde viajan una gran cantidad de rocas heladas, y siendo además una fuente importante de cometas.
La NASA y el extraño asteroide
La sonda New Horizon ha tomado espectaculares imagenes del asteroideArrokoth, cuya superficie resultó ser muy distinta a cómo se pensaba que era.
John Spencer, investigación en jefe y miembro de Southwest Research Institute, Boulder Office, de Colorado dice:
«Para mi, lo más sorprendente de este asterioide es que nos enseña lo simple del proceso de formación planetaria, producto de choques a muy baja velocidad luego de un colapso de la nube local(…) esperaba algo más ambiguo: estoy feliz de haberme equivocado».
Antes que New Horizon llegará al asteroide, los astrónomos pensaban que los TransNeptunianos más pequeños, o sea, aquellos objetos ubicados más allá del octavo planeta del Sistema Solar estaban totalmente erosionados por choques.
Apartir de este descubrimiento los científicos pueden postular que, estos asteroides no han cambiado significativamente desde la formación del Sistema Solar y que la mayoría de las características en su superficie se deben a procesos de formación y a choques de baja velocidad de suma importancia en su creación.
En esta investigación de carácter internacional participó el astrónomo de la Universidad de Chile, César Fuentes y su trabajo en este estudio se remonta a la búsqueda de Arrokoth desde observatorios del norte de Chile, para luego determinar los problemas del cambio de destino y órbita de la sonda para llegar a su nuevo destino.
«Este descubrimiento nos hace replantear la historia del disco protoplanetario y la forma en la cual el agua llegó a la Tierra posterior a su formación».
El administrador de base de datos es el que tiene la responsabilidad de mantener y operar los sistemas de información de las organizaciones, además de crear bases de datos normalizadas, etc.
Este se encarga de administrar todo en cuanto a la tecnología de la información y de la comunicación, convirtiéndose en responsable de los aspectos científicos, técnicos, sobre la inteligencia de los negocios y los aspectos tecnológicos, también de las bases de datos y de que estos sean de calidad.
Dentro de las responsabilidades de este administrador están las siguientes:
Gestión de datos corporativos
Soporte
Creación y configuración de bases de datos relacionales
Responsabilidad sobre los datos y su disponibilidad
Diseño de distribución y solución de almacenaje
Diseño, despliegue y monitoreo de las bases de datos
Ser garante de la seguridad de esos datos, realizar copias de seguridad y recuperar en caso de necesitarlo
Reportar datos relevantes para la toma de decisiones
Diagramar
Para ser un administrador de datos integral debes tener mayor competencia en el manejo de sistemas de gestiones como:
Microsoft SQL server
IBM DB2
Oracle database
IBM informix
SQL Anywhere
Otra de las cualificaciones debe ser la ingeniería estadística, que se encarga de tratar la información para darle almacenaje, aparte de eso llevar esa información a su mejor desenlace y estar disponible. Este además debe velar por la entera eficiencia tecnológica en cuanto al almacenamiento, y en las investigaciones entre otras.
Si te ha llamado la atención parte de esta información, puedes acceder a cursos gratuitos referentes a los últimos requerimientos del mercado, puedes obtener cursos gratuitos de administrador de bases de datos, para información podrás pulsar en este link
Esto es para ti si eres desarrollador o si te consideras un hacker, esta convocatoria podría ser de tu interés. La empresa que esta tras Instagram, Whatsapp, la red social homónima y otros servicios más, hiso público una invitación para su primera Hackatón en línea, la cual se realizara en el mes de marzo. Junto con la posibilidad de adquirir nuevos conocimientos, y además atractivos premios.
Esta iniciativa, para la cual se espera que no solo quede en una sola oportunidad, fue bautizada como Facebook Hackathons. Esta oportunidad brindará a desarrolladores aspirantes y experimentados la oportunidad de aprender, desarrollar y crecer haciendo uso de tecnología de punta, apoyándose en su experiencia o innovando, al aplicar nuevas técnicas.
Integrarse a este primer evento es absolutamente gratis. Al ser en línea, no es necesario que los participantes se reúnan en un lugar en específico, pudiendo participar personas interesadas desde cualquier parte del mundo. Y con grandes premios en juego, los Hackathons en línea de Facebook están diseñados para inspirar innovación.
Áreas abiertas
Las convocatorias abiertas de momento son en tres áreas:
Inteligencia Artificial, con el fin de desarrollar soluciones basadas en IA que aporten un impacto social positivo.
Mensajería, para desarrollar soluciones que potencien las comunicaciones empresariales.
Realidad Aumentada, para desarrollar experiencias que “maravillen al mundo”.
Cada categoría premiará 3 lugares, el tercer lugar tendrá un premio de $1500 usd, mientras que el segundo recibirá $2500 usd y el primer lugar, $3000 usd, más una invitación a la f8 de este año con los gastos pagados.
Para quienes no sepan o no estén familiarizados con el término, en el ambiente informático se denomina hacker a un entusiasta de la programación. Aunque popularmente, e incluso ante los ojos de la real academia española rae, se asocia este concepto a los piratas informáticos, quienes se dedican a esta actividad suelen marcar las diferencias entre lo que hacen y las obras de los cibercriminales.
Objetivo
En un Hackatón, los hackers forman equipos de trabajo en torno a una meta común. En este objetivo, tanto los esfuerzos colectivos como los individuales cimientan el camino para la obtención de soluciones concretas para los objetivos planteados.
Si estas interesado y deseas obtener más información sobre la Hackatón que Facebook llevará a cabo este 16 de marzo, podrás encontrarla en el sitio de Devpost, plataforma mediante la cual fueron lanzadas las convocatorias.
Cada semana te enviamos un resumen con lo más destacado en tecnología y recomendaciones de cursos. Mantente actualizado y avanza profesionalmente. Únete gratis.