archivo | 2 agosto, 2017

Nos hemos acercado nueve veces a Júpiter y sabemos que tiene 69 lunas, pero aún no lo conocemos a fondo

Hay quien opina que estamos explorando el espacio cuando aún no conocemos bien todo lo que hay en la Tierra (y no se equivocan), pero es que eso mismo pasa en el propio conocimiento del universo. Mientras nos hemos centrado en debates como el de si Plutón es o no un planeta, la realidad es que no conocemos bien a otros vecinos más “cercanos” como es el caso de Júpiter, al que recientemente se le han descubierto un par de lunas más.

Y no será por misiones, porque contando las que lleva la NASA son nueve las naves que se han dirigido hasta allí sin contar los telescopios que han buscado las mejores instantáneas. Pero la situación y las características del gigantesco planeta no ponen fácil su exploración, de modo que todavía se descubren satélites y aspectos del propio planeta. Repasamos su historia, las misiones y las dificultades que entraña intentar explorar este titán con un gran lunar rojo.

Siempre ha estado ahí y siempre hemos sabido que era enorme, pero no que era un planeta

No empezamos muy bien cuando ni siquiera sabemos quién descubrió la existencia de Júpiter, como sí ocurre con otros cuerpos celestes. En Cool Cosmos (una publicación de la NASA en la que colabora entre otros la Universidad Caltech) lo dicen claramente: “no hay una sola persona a quien se le haya acreditado el descubrimiento de Júpiter”. Al ser visible sin necesidad de usar ningún tipo de lente, se sabe de su existencia desde hace siglos pero no se ha podido determinar quién o quiénes lo vieron por primera vez y determinaron que era un planeta.

Quienes sí dejaron una pronta huella fueron los romanos dado que bautizaron el planeta de forma permanente con el nombre de su dios supremo, Júpiter (el equivalente del griego Zeus, ambos superiores al resto de dioses). Aunque la categorización como planeta vino tras considerar la Tierra como tal y aceptar el heliocentrismo que se atrevió a postular Nicolás Copérnico hacia 1536. Y posteriormente Galileo observó Júpiter con su telescopio y pudo ver cuatro de sus satélites.

Planetas CopernicoEl sistema copernicano (con Júpiter señalado).

¿Tan grande es que se observa sin telescopio? Lo es. Podéis ayudaros de apps que hacen las veces de Google Maps en el cielo (las tenéis para iOS, para Android y para Windows Phone, gratuitas y de pago), y lo que veréis es un punto considerablemente brillante en el cielo (es el segundo planeta más brillante tras Venus) que no parpadea (así se diferencian los planetas de las estrellas, que sí lo hacen).

Júpiter es tan monstruosamente grande que según la NASA cabrían más de 1.300 Tierras dentro de él

¿Y de qué tamaño hablamos? Según la NASA el diámetro de Júpiter es de unos 143.000 kilómetros (para hacernos una idea, el de la Tierra es de 12.756 kilómetros), y según la agencia estadounidense cabrían más de 1.300 Tierras dentro de ese gran balón gaseoso.

¿Y lo de los gases? El apelativo de Gigante Gaseoso le viene porque su atmósfera se compone sobre todo de hidrógeno y helio gaseoso (como el Sol), y de hecho según teorizan es como si se hubiese quedado a medio camino de ser una estrella, dado que según explica la NASA de ser 80 veces más masivo lo habría sido en vez de un planeta.

Otros datos que se conocen del planeta son que su día dura diez horas y que su año son doce terrestres, que la temperatura varía entre los 145 y los 24.000 grados centígrados (según se trate de las nubes más lejanas o cercanas al centro) y que la fuerza gravitatoria es 2,4 veces la de la Tierra. Los vientos alcanzan los 640 kilómetros por hora y que la famosa mancha roja (llamada así, “Gran Mancha Roja”) es un vórtice anticiclónico (una tremenda tormenta) que gira desde hace más de 300 años, se estima.

Y en cuanto a los satélites, hasta hace poco se le conocían 67, con un último descubrimiento de nueve de ellos en 2011. Fue en junio de este año cuando se confirmaron los dos últimos tras un año de observación, por lo que al planeta se le siguen descubriendo lunas. Las más grandes son Ganímedes, Calisto, Io y Europa, llamadas satélites galileanos al haber sido descubiertos en 1610 por el astrónomo.

Júpiter está lejos y lo pone difícil

Las distancias entre planetas son relativas según en qué punto de la órbita se encuentre cada uno. Júpiter puede encontrarse a unos 594 millones de kilómetros de la Tierra (unas 3,98 unidades astronómicas tomando la referencia con el Sol en el supuesto de que estuviesen alineados).

Éste, el de la distancia, es el primer problema que se plantea (quizás el más obvio). Recorrer tantos kilómetros requiere un gasto energético considerable, si bien se recurre a la asistencia gravitatoria (utilizar la energía de un campo gravitatorio para obtener aceleración o frenado) ahorrándose costes pero exigiendo estrictas ventanas de lanzamiento para las misiones al requerir cierto alineamiento de los planetas de origen y destino.

Pero en el caso específico de Júpiter se añade a este primer problema otro por sus características: a diferencia de Marte (donde hemos visto posarse y rodar vehículos), Júpiter no tiene esa superficie sólida sobre la que aterrizar, no al menos tan superficialmente como el Planeta Rojo o un asteroide. A esto hay que sumar la tremenda cantidad de radiación que la aeronave recibe, de lo cual se aquejó la sonda Galileo (que recibió mucha más radiación para la que estaba preparada).

Eso sí, si a algo de momento no nos ganan (que sepamos) es a perseverancia y a empeño, y hemos enviado varias misiones hacia el Gigante Gaseoso. De hecho éstas empezaron ya en la ebullición de la carrera espacial, en la década de los 70 poco después de que el ser humano pisase la Luna.

Nuestro currículum en Júpiter (o cerquita)

Como recuerda la NASA, primeras misiones destinadas a Júpiter fueron las Pioneer 10 y 11 , que llegaron a los alrededores del planeta en 1973 y 1974. Fue la primera vez que se obtenían observaciones y fotos directas del Gigante Gaseoso, su Gran Mancha Roja y los satélites (hasta el momento conocidos). Determinaron que se componía básicamente de líquido y que parecía tener un núcleo sólido.

Jupiter Pioneer 10Así vio Pioneer 10 a Júpiter (en 1973).

El testigo de estas misiones lo recogieron los Voyager 1 y 2, lanzadas en 1977 y que en su paso por Júpiter en 1979 tomaron más de 52.000 fotografías del planeta. Sirvieron para descubrir aspectos relativos a la meteorología del planeta y se descubrieron volcanes activos en Io.

Jupiter Voyager 01La foto que tomó el Voyager 1 de Júpiter el 13 de febrero de 1979 (con Io a la izquierda y Europa a la derecha). (Crédito: NASA/JPL)

Posteriormente la misión Galileo orbitó Júpiter a finales de los 80, siendo la primera vez que se descendía 153 kilómetros al interior de su atmósfera para poder determinar las características de la misma. También envió evidencias de que podía haber un océano bajo la superficie de Europa y capturó la colisión del cometa Shoemaker-Levy 9 contra el planeta.

Jupiter Anillo GalileoJúpiter no iba a ser menos y también tiene anillos. Esta bonita silueta del planeta y uno de ellos fue capturada por la sonda Galileo a su paso.

En 1992 la misión Ulises se encargó de recoger datos sobre la magnetosfera de Júpiter, y en el 2000 Casinni echó un ojo al planeta “de paso”, ya que su destino final era Saturno. Ese paso dio 26.000 imágenes del planeta y sus satélites, y de todo lo que aconteció en esta misión hablamos antes de que acabase la misma.

Jupiter CassiniAsí vio Cassini el polo sur de Júpiter. La imagen no deja de ser bella, pero atentos a la que envió posteriormente Juno con mucho más detalle: parecen dos planetas distintos.

La que fue también de paso fue New Horizons, la cual iba ni más ni menos que a Plutón. Pasó por el Gigante Gaseoso en 2007 y estuvo durante seis meses, centrándose en la exploración de la climatología, los satélites y los anillos.

Por su parte los telescopios también han proveído de imágenes, por ejemplo el Hubble (veremos un fantástico ejemplo a continuación, al hablar de Juno). De hecho proporcionó otra perspectiva del impacto del cometa que presenció la sonda Galileo, ha tomado numerosas imágenes de la Gran Mancha Roja y continuará su actividad aún durante unos años más desde que fuese puesto en marcha en los 90.

La información más reciente que tenemos del planeta es la que transmitió Juno, la cual de hecho hizo que los científicos concluyesen que estamos descubriendo “un Júpiter completamente nuevo”, como dijimos al hablar de todo lo que se estaba viendo. Esta misión ha sido excepcionalmente provechosa, teniendo en cuenta que cada 53 días Juno viajaba de polo a polo registrando información con ocho instrumentos.

Jupiter Polo JunoLa asombrosa perspectiva (y realidad) que nos mostró Juno sobre los polos de Júpiter. (Crédito:NASA/JPL-Caltech/SwRI/MSSS/Betsy Asher Hall/Gervasio Robles)

Con esto, además de fotografías espectaculares y reveladoras, que los polos son un caos de tormentas enormes (como la Tierra, por ejemplo). Aunque es difícil determinar cómo se originan o su estabilidad, de hecho ni siquiera hay una actividad parecida en los polos (en el norte hay una nube de 7.000 kilómetros que literal y figuradamente ha supuesto otra sombra a nuestros conocimientos).

Jupiter AuroraGracias, Hubble, por mostrarnos las auroras de Júpiter. (Crédito: NASA, ESA, and J. Nichols (University of Leicester))

El campo magnético es diez veces más potente de lo que se había calculado hasta ahora, y también 10 veces más fuerte que lo registrado en la Tierra. Y las auroras, que también las tiene (y cautivadoras) parece que no funcionan como lo hacen aquí en la Tierra (donde siguen estudiándose).

Querer no es poder si no hay presupuesto

Hace poco supimos que la NASA no tiene presupuesto para llegar a Marte en 2030 como se había previsto (y como tenían orden), por lo que parece que el horizonte de la exploración espacial está algo enturbiado. De hecho ya en 2005 se canceló la misión JIMO (Jupiter Icy Moons Orbiter) por motivo de presupuesto.

No obstante, las ideas de seguir explorando el planeta y sus lunas se suceden en ésta y otras agencias, como la propuesta del JUICE (JUpiter ICy moon Explorer) de la ESA o la de ir a Europa en busca de pruebas de vidade la NASA. De momento hay que seguir estudiando la información obtenida para ver si hay más de 69 satélites y habrá que esperar a 2018para tener nuevas observaciones.

Imagen | NASA

Vía | Xataka

Anuncios

Project 47 es el supercomputador que ofrece 1 petaFLOP de rendimiento gracias a sus 80 GPUs Radeon Instinct

Mucho tenía que contarnos AMD en su conferencia del SIGGRAPH 2017, y aunque sus procesadores y gráficas para el mercado de consumo eran los anuncios más esperados, también ha habido sitio para el siempre llamativo segmento de los supercomputadores.

Precisamente es ahí donde se enmarca el llamado Project 47, un supercomputador desarrollado en colaboración con Inventec y que combina 20 CPUs AMD EPYC 7601 de 32 núcleos y 80 GPUs Radeon Instinct MI25. El resultado: un petaFLOP para todo tipo de escenarios de computación de alto rendimiento.

Presumiendo de rendimiento por vatio

En AMD afirman que la arquitectura Vega es además responsable de que estos nuevos supercomputadores puedan presumir de un rendimiento por vatio impresionante que en el caso del Project 47 llega a los 30 GFLOPS/W.

Instinct

Aplicaciones como el aprendizaje automático, la virtualización o el renderizado están entre las posibles beneficiadas de un rendimiento que se ofrece en formato de rack para englobar esas CPUs y GPUs y que además hace uso de 20 tarjetas Mellanox 100G InfiniBand para que todos esos sistemas trabajen en paralelo.

A esos componentes se le une la memoria HBM2 fabricada por Samsung que es protagonista absoluta en la arquitectura Vega. Este fabricante también es el responsable de las unidades SSD NVMe de alto rendimiento que contribuyen a ese rendimiento. Estos servidores comenzarán a estar disponibles en el mercado a partir del cuarto trimestre del año.

Más información | AMD | Xataka

HBO ha sido hackeada: se han filtrado varios capítulos de series y un guión de ‘Juego de Tronos’, según EW

Ni HBO ni ‘Juego de Tronos’ se libran de los hackeos. Según ha informado en exclusiva Entertaiment Weekend, la HBO ha confirmado con un comunicado y en un correo electrónico a sus empleados que la empresa ha sido hackeada, y que los atancantes han robado información privada, incluyendo información sobre algunas de sus series.

Según asegura este medio, los supuestos atacantes les enviaron el domingo un correo electrónico asegurando haber obtenido 1,5 terabytes de información de la empresa, han puesto online el guión de por lo menos uno de los próximos capítulos de la séptima temporada de ‘Juego de Tronos’, el cuarto, y amenazan con filtrar más información próximamente.

“Hola a toda la humanidad. La mayor fuga de la era del ciberespacioestá sucediendo”, dice el correo de los supuestos atacantes recibido por EW. “¿Cuál es su nombre? Oh, me olvida decirlo. Es HBO y su ‘Juego de Tronos’…… !!!!!! Tienes suerte de ser los primeros pioneros en presenciar y descargar la fuga. Disfrutadlo y difundir la palabra. Quien lo propague mejor, tendremos una entrevista con él. HBO está cayendo”.

En el momento de publicar esta noticia el equipo de Xataka no ha encontrado en Internet ese supuesto guión filtrado de la serie, por lo que no podemos confirmar el alcance del hackeo. Los primeros indicios apuntan a que no sólo se ha obtenido material de ‘Juego de Tronos’, por lo que podríamos encontrarnos con spoilers de varias series en los próximos días.

HBO podría haber confirmado el hackeo

Según dicen también en Entertaiment Weekend, HBO les ha enviado un comunicado confirmándoles que efectivamente han tenido “un ciber incidente” por el que se ha visto comprometida información privada. Actualmente y siempre según este medio, el canal está actualmente trabajando en investigar lo ocurrido con las autoridades y firmas de ciberseguridad.

En una carta que HBO le ha enviado a sus empleados y a la que también ha tenido acceso EW, el CEO de la empresa Richard Plepler le habría confirmado a sus empleados el hackeo y les ha intentado tranquilizar diciéndoles que están trabajando en proteger sus intereses.

“Cualquier intrusión de esta naturaleza es obviamente perturbadora e inquietante para todos nosotros”, dice Plepler en la carta. “Puedo aseguraros que los altos directivos y nuestro extraordinario equipo tecnológico, junto con expertos externos, trabajan día y noche para proteger nuestros intereses colectivos”.

La carta concluye con el CEO de la empresa diciendo que por desgracia el problema no deja de ser uno de los más recurrentes en el mundo actual, y se muestra confiado en que la empresa sabrá salvar la situación como lo han hecho con otros problemas en el pasado.

¿Qué supone esto para HBO?

De momento toda la información respecto a este presunto ciberataque es bastante confusa, y cuesta medir cual es el impacto real que tendrá en la empresa o en sus series. De momento y según la información de Entertaiment Weekend, los hackers parecen estar centrados en querer difundir capítulos de la serie estrella de HBO.

De ser esto verdad e influir sólo en algunos guiones de series de la cadena el daño sólo afectaría a esos que voluntariamente buscasen en Internet estos guiones para fastidiarse a sí mismos el transcurrir de algunas de sus series favoritas.

El verdadero problema estaría en su esos supuestos 1,5 terabytes de información contienen también material audiovisual que pudiera encontrar su camino a plataformas de vídeo más populares, o en el peor de los casos que también incluyese información privada de los usuarios como cuentas y contraseñas.

Pero parece que no estamos ante este último caso, porque de ser así HBO ya hubiera enviado correos a sus usuarios o reiniciado ellos mismos las contraseñas para evitar daños mayores. Seguiremos informando y actualizando esta entrada según tengamos más datos de lo ocurrido.

Vía | Xataka

Bitcoin se parte en dos: Bitcoin Cash surge como una alternativa con un futuro incierto

Hoy era un día singular para el futuro de bitcoin, la criptomoneda que desde hacía meses se enfrentaba a una crisis interna por las limitaciones en su diseño original: el reducido ritmo de transacciones hizo que surgieran diversas alternativas sobre cómo solucionar el problema.

Una de esas alternativas ha sido la aparición de un ‘user activated hard fork‘ (UAHF) que ha dado como resultado el nacimiento de Bitcoin Cash. Las implicaciones pueden ser importantes, pero el futuro tanto de bitcoin como de Bitcoin Cash dependerá del apoyo de la comunidad de usuarios.

Dos criptomonedas que competirán entre sí (con otras muchas)

La criptomoneda original, bitcoin, adopta a partir de ahora un nuevo sistema llamado Segwit2x que permite trasladar la gestión de las transacciones fuera de la cadena de bloques (blockchain), algo que teóricamente debería ayudar a solucionar los problemas que existían ante el elevado (y creciente) número de operaciones que se realizan con esta moneda.

Cash

En el caso de Bitcoin Cash, la solución pasa por hacer uso de bloques de mayor tamaño en la cadena de bloques, que era una propuesta que se había tratado de adaptar a bitcoin sin que los apoyos a ese cambio fueran suficientes.

La división entre ambas monedas —con otras muchas también en la carrera por ser las más relevantes— se ha producido hoy a las 12:37 UTC. En ese momento se obtenía el bloque 478.558, el último antes de esa división que ahora hará que haya dos índices de bloque distintos.

El futuro de Bitcoin Cash, aún por definir

El del bitcoin original sigue avanzando y se han seguido obteniendo bloques de forma habitual (en el momento de escribir la noticia el último es el 478.602), mientras que la “minería” de ese primer bloque inaugural de Bitcoin Cash acaba de dar resultado con un tamaño de casi 2 MB.

Cash2

Son por tanto los mineros de Bitcoin Cash los que deberán demostrar su apoyo obteniendo esos bloques que se caracterizan por ser mayores de 1 MB (de hecho, tienen un tamaño de entre 1 y 8 MB) para certificar el nacimiento de esa nueva criptomoneda. Es posible realizar el seguimiento de los bloques de BCC minados en comunidades de mineros (pools) dedicadas al Bitcoin Cash como la que tiene ViaBTC.

Será ese apoyo y el interés de las comunidades de inversores —algunos traders han dado su apoyo oficial solo a bitcoin y no a Bitcoin Cash— y usuarios las que acaben definiendo una situación extraña y difícil. El valor actual de bitcoin supera los 2.740 dólares según CoinMarketCap en estos momentos, mientras que la nueva Bitcoin Cash (BCC o BCH) está rondando los 290 dólares.

Vía | CoinDesk | Xataka

Por qué es peligroso conectarse a Wifis públicas y qué debes hacer para protegerte

Conectarse a las redes WiFi públicas y gratuitas que nos rodean es tentador. Nos evitan tener que usar los datos móviles de nuestro contrato, pero los riesgos que asumimos al conectarnos a ellas son enormes.

La mayoría de usuarios utilizan este tipo de redes alegremente, pero como decimos al usarlas exponemos nuestros datos, nuestro tráfico y nuestra identidad de forma casi total. Puede haber graves consecuencias al conectarnos a una WiFi pública, pero afortunadamente hay formas de protegernos y seguir usando esas conexiones públicas y gratuitas.

Cuanto te conectas a una WiFi pública, te expones a todo esto

Estas redes gratuitas que solemos utilizar en aeropuertos, cafeterías, centros comerciales, restaurantes u hoteles nos dan acceso gratuito a internet, y basta con un par de clics para conectarnos a estas WiFi públicas. Localizaciones tan atractivas para los usuarios como los medios de transporte o puntos turísticos que nos invitan a conectarnos a sus redes WiFi gratuitas son cada vez más populares y numerosas.

MitmEn un ataque MitM el atacante es capaz de leer y modificar los mensajes entre dos usuarios o sistemas.

Cuando nos conectamos además solemos usarlas como si estuviéramos usando la red WiFi de casa o nuestra cuota de datos móviles: nos conectamos a nuestras redes de datos, leemos el correo, comprobamos nuestras cuentas bancarias o consultamos todo tipo de información.

Todas esas operaciones quedan expuestas en esas redes WiFi públicas, y lo están porque hay distintos tipos de ataques y riesgos de seguridad que amenazan esa privacidad y esa seguridad que ni siquiera tenemos en cuenta cuando nos conectamos a ellas. Los más destacados son los siguientes:

  1. Ataques Man in the Middle (MitM): el ciberatacante puede lograr “colarse” en nuestras comunicaciones entre nuestro ordenador o móvil y el otro extremo de esas transferencias de datos, lo que básicamente hará que pueda “leer” todo los datos transmitidos entre ambos extremos.
  2. Redes no cifradas: aunque en algunos casos esos puntos de acceso pueden haber sido configurados para cifrar las transferencias de datos de aquellos que se conectan, la mayoría de routers no tienen esa opción activada por defecto, lo que hace una vez más que nuestras comunicaciones puedan acabar siendo cotilleadas por ciberatacantes.
  3. Distribución de malware: estas redes públicas también permiten que ciberatacantes que se infiltren en ellas puedan utilizarlas como medio para contagiar nuestros dispositivos con todo tipo de malware.
  4. Snooping y sniffers: este tipo de técnicas permiten también infiltrarse en las transmisiones de datos que estamos realizando para capturar toda esa información y registrarla. Este tipo de herramientas hacen posible que un atacante pueda descubrir nuestras contraseñas y claves para entrar en redes sociales o realizar operaciones bancarias.
  5. Redes WiFi públicas falsas: esa red WiFi que crees que es del hotel o restaurante en el que estás usándola podría no ser de ellos, sino que podría ser una red falsa que un ciberatacante hubiera puesto en marcha para, precisamente, infiltrarse en tus comunicaciones y lograr capturar todo tipo de datos de tu portátil o teléfono móvil.

Firesheep como ejemplo del peligro

Esas amenazas hacen que todo tipo de datos transmitidos durante esa comunicación mantenida en una red WiFi pública estén comprometidos. No solo los sitios web que visitamos, sino los correos electrónicos o lo que decimos en aplicaciones y webs de mensajería instantánea, con quién estamos comunicándonos, nuestra localización, fotos y otros ficheros que enviemos en esas sesiones.

Firesheep

Uno de los casos más célebres de los riesgos que entrañan estas redes ocurrió en 2010fue entonces cuando descubrimos la extensión Firesheep para Firefox. Este componente iba un paso más allá en la captura de paquetes en una red pública, y permitía robarnos nuestras cuentas de Google, Facebook, Twitter o Flickr con un doble clic. Sin más.

Para lograr atajar aquel ataque se recomendaba acudir a la extensión HTTPS Everywhere, que permitía garantizar que las páginas que visitábamos estaban haciendo uso del protocolo HTTPS y activaban dicha versión (cuando aún era opcional) en lugar del protocolo convencional HTTP. La herramienta acabó teniendo una versión para Android llamada Faceniff que aprovechaba ese mismo problema, y que demostraba lo sencillo que era aprovechar vulnerabilidades en redes WiFi abiertas públicamente.

Consejos rápidos a la hora de usar redes WiFi públicas

Si por alguna razón necesitas usar esas redes WiFi y quieres tratar de evitar esos peligros, al menos puedes tomar algunas precauciones rápidas. Por ejemplo, la de no conectarte automáticamente a esas redes WiFi cada vez que tu dispositivo móvil o tu portátil las detecte. En Windows, por ejemplo, es importante indicar que esa conexión es a una red pública (y no de trabajo o doméstica) para evitar que nuestras carpetas y recursos compartidos puedan estar a disposición de otros usuarios de la red.

Windows7

También es buena idea no usar aplicaciones móviles con información sensible si hay versiones web de esos servicios. En ese caso lo recomendable es acceder con un navegador a esos servicios —por ejemplo, la web de Facebook— para asegurarnos de que el protocolo utilizado en esa página es HTTPS antes de introducir nuestras credenciales.

Aun utilizando conexiones HTTPS, lo ideal es no hacer operaciones bancarias o consultar datos sensibles (por ejemplo de análisis médicos) si nos conectamos a esas redes WiFi. En esos casos siempre es mejor esperar a contar con una conexión de confianza (por ejemplo, la de nuestra cuota de datos móviles en redes 3G/4G) para acceder a tales servicios.

Tras utilizar esos servicios en la red pública, es también muy recomendable cerrar la sesión de los servicios utilizados para que no quede “residuo” alguno de nuestra conexión a esos sitios web. Desactivar los ficheros y carpetas compartidas es buena idea, y también es interesante desactivar la conectividad WiFi o Bluetooth cuando ya no las necesitemos.

Las VPNs, el mejor mecanismo de defensa al conectarte a una WiFi pública

Sin embargo todas esas medidas son pequeños parches para un problema que tiene una solución en las redes privadas virtuales o VPN. Este tipo de servicio nos ofrece una conexión virtual punto a punto que actúa como una especie de túnel privado entre ambos extremos de la comunicación, uno al que un ciberatacante difícilmente tendrá acceso.

A la hora de elegir una red privada virtual, eso sí, la oferta es tan amplia que puede confundir a los usuarios. Existen un buen número de proveedores de VPNs gratuitas, pero algunas de ellas se han visto sacudidas por el escándalo, como ocurrió con Hola, el servicio que vendía el ancho de banda de sus usuarios a terceros.

Es por tanto recomendable hacer uso de una VPN de pago que además garantice ciertas opciones: por ejemplo, que no haya registro de actividad de uso y tampoco registro de las conexiones o que se use un cifrado fuerte en las conexiones.

En esa lista de características también es relevante que el servicio disponga de cobertura global y un buen número de servidores a los que conectarse. De hecho, que no esté en países como Estados Unidos suele ser un plus para muchos por la actividad de la NSA. La posibilidad de pagar con bitcoin u otras criptomonedas para garantizar un mayor anonimato y el soporte de protocolos P2P es también llamativo para muchos usuarios de este tipo de conexiones.

Todos esos elementos ayudan a que nuestras sesiones sean mucho más seguras en cualquier escenario (incluido nuestro propio hogar o nuestra oficina), pero precisamente por ese cifrado y establecimiento de un canal privado es por lo que usar una VPN en nuestro móvil o portátil cuando nos conectamos a una WiFi pública es tan recomendable.

Vía | Xataka

Moto G5S y G5S Plus: la gama media se viste de aluminio y estrena cámara dual

2017 está siendo un año bastante ajetreado para la división móvil de Motorola. En lo que va de año ya han anunciado nada menos que diez smartphones, la mayoría de ellos de gama media y baja, y alguno de gama alta como el recién presentado Moto Z2 Force. Los dos últimos modelos en sumarse a la oferta de la firma son los rumoreados Moto G5S y Moto G5S Plus.

Atrás quedaron los tiempos en los que la familia Moto G se renovaba con un sólo smartphone al año, ahora son nada menos que cuatro los dispositivos que se incluyen dentro de esta emblemática serie. Los Moto G5S y G5S Plus se sitúan un escalón por encima del dúo Moto G5 que conocimos en el MWC. Sus principales argumentos son pantallas más amplias, diseño de aluminio unibody (esta vez sí) y cámara doble, aunque solamente para el modelo Plus.

Moto G5S: más grande, más resistente… pero no más potente

Moto G5s

Decíamos que una de las novedades de esta nueva pareja de smartphones es que el diseño es de aluminio unibody, nada de una pieza de aluminio combinada con plástico como vimos en los primeros modelos. De hecho, el Moto G5 tenía carcasa extraíble, pero su hermano G5S abandona esta característica para dar paso a una carcasa fija, lo que significa que no podremos acceder la batería, pero también deberíamos ganar en resistencia.

Otra de sus novedades es la pantalla. El Moto G5S mantiene la resolución FullHD, pero su panel crece hasta 5,2 pulgadas, un aumento discreto pero que hace que su peso aumente hasta 157 gramos -aunque aquí la construcción unibody también tendría que ver. También tenemos el revestimiento impermeable habitual y el lector de huellas frontal. La cámara principal sube a 16 megapíxeles y la frontal se queda en 5 megapíxeles, pero por el camino gana un flash LED.

Aunque mantiene el mismo procesador y RAM que el Moto G5, esta versión ‘S’ gana una novedad muy necesaria: la memoria asciende a 32 GB.

Si nos fijamos en el hardware, en Motorola han sido más conservadores y se quedan con el mismo procesador, un Snapdragon 430 que en este caso viene con 3 GB de RAM. Eso sí, donde vemos una mejora más contundente (y necesaria) es en la memoria, que llega a 32 GB. Tenemos Android 7.1 Nougat y batería de 3.000 mAh con carga rápida TurboPower.

Moto G5S Plus: las cámaras dobles no son sólo cosa de la gama alta

Moto g5s plus

Le toca el turno al más aventajado de la clase. Igual que su hermano pequeño, el Moto G5S Plus gana el diseño de aluminio unibody y su pantalla crece en tamaño, concretamente hasta las 5,5 pulgadas en diagonal. También mantiene el lector de huellas y la resistencia a salpicaduras.

En este caso hay menos cambios a nivel de hardware. Volvemos a tener el chip Snapdragon 625, acompañado de 3 GB de RAM, 32 GB de capacidad y batería de 3.000 mAh con TurboPower. Es la cámara donde nos encontramos con la novedad más destacada de este Moto G5S Plus, porque sí, incluye cámara doble.

El Moto G5S Plus integra cámara doble 13 megapíxeles con un modo de que permite desenfocar, colorear o sustituir el fondo de la imagen por software.

Motorola se estrenó en esto de las cámaras duales hace apenas unos días y ahora repite, pero lo hace con la gama media. El Moto G5S Plus apuesta por una configuración que combina dos sensores de 13 megapíxeles con una función bastante de moda en fotografía móvil: el modo retrato o efecto desenfoque. Pero ojo, en este caso estamos ante un sistema que nos permite editar la imagen una vez disparada para añadir el desenfoque al fondo, colorearlo o sustituirlo. A priori, nos recuerda bastante a la propuesta de HTC con el pionero M8. Habrá que esperar para poder probar esta característica más a fondo y ver los resultados que ofrece.

En cuanto a la cámara delantera también mejora con un sensor de 8 megapíxeles, modo panorámica y por supuesto el omnipresente modo belleza. A continuación os dejamos las características técnicas de ambos modelos.

MOTO G5S MOTO G5S PLUS
DISEÑO 150 x 73,5 x 9,5 mm
157 gr
Aluminio unibody
Gris lunar / oro fino
Lector de huellas frontal
Revestimiento nanométrico impermeable
153,5 x 76,2 x 9,5 mm
168 gr
Aluminio unibody
Gris lunar / oro rosáceo
Lector de huellas frontal
Revestimiento nanométrico impermeable
PANTALLA 5,2 pulgadas
FullHD 1,920 x 1,080 píxeles
424 ppp
Corning Gorilla Glass 3
5,5 pulgadas
FullHD 1,920 x 1,080 píxeles
401 ppp
Corning Gorilla Glass 3
PROCESADOR Snapdragon 430
Octa-core a 1,4 GHz
GPU Adreno 505 a 450 MHz
Snapdragon 625
Octa-core a 2,0 GHz
GPU Adreno 506 a 650 MHz
RAM 3 GB 3 GB
MEMORIA 32 GB + MicroSD 128 GB 32 GB + MicroSD 128 GB
SOFTWARE Android 7.1 Nougat Android 7.1 Nougat
CÁMARA TRASERA 16 MP, PDAF, f/2.0, flash LED, modo Pro, modo belleza, auto HDR, vídeos FullHD, estabilizador, cámara lenta Dual 13 MP, editor de profundidad (efecto desenfoque), f/2.0, flash LED doble, modo Pro, modo belleza, auto HDR, vídeos 4K, estabilizador, cámara lenta
CÁMARA FRONTAL 5 MP, f/2.0, flash LED, modo Pro, modo belleza 8 MP, f/2.0, flash LED, modo Pro, modo belleza, panorámicas
CONECTIVIDAD 4G LTE Cat 4, WiFi a/b/g/n, Bluetooth 4.2, aGPS/Glonass, microUSB, minijack 4G LTE Cat 7, WiFi a/b/g/n, Bluetooth 4.1, NFC, aGPS/Glonass, microUSB, minijack
BATERÍA 3.000 mAh
Carga rápida TurboPower
3.000 mAh
Carga rápida TurboPower
PRECIO 249 euros 299 euros

Moto G5S y G5S Plus: precio y disponibilidad

No han pasado ni seis meses desde que conocimos los Moto G5 y G5 Plus y Motorola ya nos ofrece una renovación de ambos modelos con algunas mejoras interesantes y otras más tímidas. Como era de esperar, esas mejoras se traducen en un aumento en el precio, aunque no es tanto como podríamos esperar. Concretamente hablamos de 249 euros para el Moto G5S y 299 euros para el Moto G5S Plus, 40 y 20 euros más respectivamente sobre los precios de lanzamiento de los Moto G5.

La verdad es que viendo las novedades que aporta cada modelo y teniendo en cuenta la diferencia de precio, los Moto G5S podrían acabar eclipsando a los Moto G5 originales, aunque también es cierto que sus precios han bajado desde su lanzamiento y la diferencia se amplia. Los Moto G5S estarán disponibles en Europa a partir del próximo mes de septiembre.

Vía | Xataka

Después de 13 trimestres a la baja ¡el iPad vive! Apple vuelve a incrementar sus ventas en todos los apartados

Hoy toca día de números. Apple acaba de presentar sus resultados financiaros correspondientes al tercer trimestre de 2017 con cifras por demás destacables, esto después de varios meses complicados. La compañía regresa a la senda del crecimiento con un aumento en prácticamente todos los apartados, sí, hasta el iPad.

Los ingresos totales para este trimestre se sitúan en los 45.408 millones de dólares, es decir, un 7,2% más que el mismo periodo del año anterior. Esto ha provocado que las acciones de la compañía se estén disparando en hasta un 4,5%después del cierre, ya que han superado, y por mucho, las expectativas de los analistas.

El iPad vende 15% más unidades que el año pasado

Lo más destacable de estas cifras ha sido la inesperada participación del iPad, que después de 13 trimestres consecutivos a la baja, este tercer trimestre de 2017 está mostrando importantes signos de recuperación con 15% más unidades que el año anterior. Esto representa un 2% más ingresos que el mismo trimestre de 2016, lo que significa que el lanzamiento del iPad (2017) ha sido una estrategia acertada que el mercado está recibiendo muy bien.

En total, durante este trimestre Apple vendió 11,5 millones de iPad con ingresos de 4.969 millones de dólares.

Bii Apple Ipad Sales And Yoy Growth 2q17

Respecto al iPhone, nuevamente tenemos aumento en la cifras que lo mantienen como el dispositivo más importante para la compañía. Durante este tercer trimestre vemos como el smartphone de Apple ha incrementado ligeramente sus ventas en un 2% en unidades y 3% más ingresos que el año anterior. Esto significa que se vendieron 41 millones de iPhone para unos ingresos por 24.846 millones de dólares.

Bii Apple Iphone Sales And Yoy Growth 2q17

Como mencionábamos al inicio, Apple está reportando ganancias en todos sus apartados. En el caso de Mac tenemos ventas por 4,3 millones de unidades, un 1% más que el año anterior, para situarse los 5.592 millones de dólares, un incremento del 7% respecto al mismo trimestre del año anterior.

Bii Apple Mac Sales And Yoy Growth 2q17

Para el caso de los servicios, estos se mantiene con muy buena salud siguiendo la tendencia de trimestres anteriores. Aquí hay que recordar que se engloban los servicios digitales de la compañía, como las App Stores, Apple Music, Apple Pay y otros. Los ingresos en este apartado ascienden a 7.266 millones de dólares, lo que significa que siguen siendo el segundo apartado más importante para Apple después del iPhone.

Los servicios de Apple suben un 22% y se mantienen como el segundo apartado más importante para la compañía después del iPhone.

Por último está el apartado de ‘Other Products’, donde encontramos productos como Apple TV, Apple Watch, Beats y iPod, que se mantienen con la tendencia al alza al reportar ingresos por 2.735 millones de dólares, un 23% más que mismo trimestre de 2016.

Apple vende más en todo el mundo pero China se resiste

Dentro de todas estas cifras hay que destacar que Apple volvió aumentar sus ventas en casi todos los mercados: América aumenta un 13%, Europa 11%, Japón 3% y ‘Resto de Asia’ 15%, pero en China tenemos una caída del 10%, que se mantiene en el -14% del trimestre anterior. Sí, algo pasa con China y Apple donde la competencia empieza a apretar.

Lo que es un hecho es que durante este tercer trimestre del año, que suele ser el más flojo, Apple se está anotando buenos números de cara al lanzamiento del próximo iPhone. Esto puede ser un adelanto de lo que veremos hacia finales de año, donde en caso de mantener esta tendencia podríamos ver nuevos récords financieros en Cupertino.

Vía | Xataka

Compró una rara edición de Atari 2700 por 30 dólares y la vendió en internet por 3.000 dólares

A finales de la década de 1970 Atari era el rey indiscutible en el mundo de los videojuegos caseros, esto hizo que se plantearan diversas estrategias para continuar con el apabullante éxito de la Atari 2600. La respuesta a esto sería la Atari 2700, una consola que sería compatible con los juegos y mandos de la 2600, pero añadiría un mejor diseño así como la introducción de dos mandos inalámbricos con joystick y función de paleta al estilo Wiimote.

De la Atari 2700 se estima que se fabricaron únicamente 12 consolas, la compañía estaba tan entusiasmada con el lanzamiento que ya tenían lista la campaña de marketing, materiales publicitarios y la caja. Lamentablemente el producto fue descartado por problemas con los mandos inalámbricos.

Pues una de estas consolas fue encontrada en una tienda de segunda mano en California por 30 dólares y se volvió toda una joya en los últimos días en Reddit.

Una verdadera y única pieza de museo

Atari 2700 3

El usuario autodenominado L064N explicó en un post en Reddit que hace unos días en una tienda DAV (Disabled Army Veterans), centrada en productos de segunda mano cuyos fondos son para la ayuda de veteranos de la armada de los Estados Unidos, se encontró con esta rara edición de Atari. Después de buscar en Google un poco más de información pudo confirmar que se trataba de la Atari 2700, una actualización a la Atari 2600.

Después de adquirir la consola por sólo 30 dólares se dio cuenta que faltaban los mandos inalámbricos, por lo que decidió al día siguiente regresar a la tienda a ver qué había pasado con ellos. Al parecer se extraviaron o la persona que donó la consola simplemente no los entregó.

Esto no fue impedimento para que L064N la pusiera a la venta en eBaydonde consiguió varias ofertas hasta que finalmente la vendió en 3.000 dólares. Un precio que incluso se cree está por debajo de su valor al tratarse de una consola de la que sólo se fabricaron 12 unidades en 1980 y de la que se estima que quedan entre 5 y 6 en el mundo. Un prototipo único digno de museo o coleccionistas.

Atari 2700 Ad
Parte del material publicitario de la Atari 2700. Vía: The Atari Museum

John Hardie, director del National Video Game Museum, explicó a Kotakuque la principal razón por la que la Atari 2700 no salió a la venta fue por los mandos, ya que estos funcionaban a base de radio con un alcance de 300 metros. Esta conexión no era única para cada consola, por lo que se corría el riesgo de que funcionaran con otras consolas cercanas y crearan interferencia. Además, cada mando era único para el jugador izquierdo y el derecho, lo que hacía que por ejemplo en un edificio de apartamentos fuera un caos si se tenían varias consolas encendidas al mismo tiempo.

La Atari 2700 tenía un diseño más elegante, la tapa superior daba acceso a un espacio para almacenar los mandos y fuera fácil de transportar. Lamentablemente, Atari realizó las pruebas de funcionalidad cuando ya se habían gastado todo el dinero en la planificación del lanzamiento, por lo que al final tuvieron que cancelar todo. En 1982 se empezó a desarrollar la idea de una nueva consola con mejoras respecto a la 2700, pero para 1983 el lanzamiento de la NES acabó con todos esos planes, y aunque Atari intentó regresar, todos conocemos el desenlace de la historia.

Atari 2700 2
Vía | Xataka

Récord de almacenamiento: IBM logra meter 330 terabytes de datos en un cartucho diminuto

Un grupo de científicos de IBM han desarrollado un tipo de cartucho que cabe en la palma de la mano y en el que han almacenado 330 terabytes de datos sin comprimir.

Este dispositivo hace uso de un tipo especial de cinta magnética que logra una densidad de 201 gigabits por pulgada cuadrada, que es 20 veces la densidad convencional de las cintas magnéticas de almacenamiento que se usan en la industria.

Las cintas magnéticas siguen teniendo sentido

Las cintas magnéticas que se ya se utilizaban hace 60 años fueron avanzando y de hecho se convirtieron en protagonistas con la era del cassette que inundó el segmento de la música y también el de la microinformática con los ordenadores de 8 bits. Esa presencia se mantuvo en los centros de almacenamiento en los que las unidades de cinta magnética han seguido teniendo una gran presencia por su reducido coste por gigabyte.

Esta nueva cinta ha sido fabricada en colaboración con Sony Storage Media Solutions, y según los responsables de su creación permitirá mantener la viabilidad de estas soluciones de almacenamiento durante la próxima década.

No solo eso: su aplicación en grandes centros de almacenamiento en la nube podría ser inminente. Aunque es cierto que el coste de fabricarla es algo más alto que la cinta magnética tradicional, “el potencial para soluciones de alta capacidad hace que el coste por terabyte sea muy atractivo, haciendo que esta tecnología sea muy práctica para el almacenamiento en frío en la nube“.

Ibm1

Esto es, para datos que no es necesario mover constantemente desde la nube a otros dispositivos y que se mantendrán inmutables durante largas temporadas. En estos casos es en los que estas cintas magnéticas podrían ser interesantes para una industria que desde luego no parece tener límites en cuanto a sus necesidades de almacenamiento.

Vía | The Verge | Xataka

Apple y su infatigable marcha para convertirse en la primera empresa del billón de dólares

Hace unas horas que Apple ha presentado los resultados fiscalespara el segundo trimestre del año, y (casi) todo son buenas noticias para la empresa de Cupertino, que superó las expectativas de Wall Street y que tras algunas dudas en el trimestre anterior se ha recuperado con fuerza.

De hecho todo apunta a que en los próximos 12 meses Apple logrará un hito increíble: convertirse en la primera compañía del billón de dólares en capitalización de mercado. A ello contribuirá especialmente el lanzamiento de los últimos tiempos, ese prometedor iPhone 8 que promete volver a batir todos los récords.

Buenas noticias por todos lados

Este segundo trimestre del año (tercer trimestre fiscal) fue especialmente bueno para Apple, que vendió 41 millones de iPhones y que tuvo unos ingresos totales de 45.400 millones de dólares, un 7% más que en el mismo periodo del año pasado.

Apple

Las buenas noticias se extendieron incluso al iPad, del que se vendieron más de 11 millones de unidades y que creció por primera vez en ventas en los últimos tres años.

Aquí hay dos factores que probablemente han influido de forma importante; el primero, la aparición del iPad ‘barato’, y el segundo, el papel que iOS 11 tendrá sobre todo en los iPad Pro a la hora de convertirlos en máquinas mucho más versátiles a la hora de producir y no solo consumir contenidos.

Menos dependencia del iPhone

También hubo ligero crecimiento (1% respecto al mismo periodo del año pasado) en ventas de sus Mac y grandes noticias para los Apple Watch, que según Tim Cook vendieron un 50% más que en el mismo periodo del año pasado.

Watch

Algunos analistas como Ben Bajarin sugieren que Apple podría haber vendido entre 2 y 3 millones de unidades de su reloj inteligente, un dato que también podría haberse visto influido por el bache por el que está pasando Fitbit y la desaparición de competidores como Jawbone.

Las cosas incluso también cambiaron de tendencia en esa conocida dependencia del iPhone que tenía Apple en sus ingresos: en el trimestre actual el porcentaje de ingresos debido a los iPhone bajó al 55% (fue del 63% en el trimestre pasado) mientras que los servicios (iCloud, Apple Music) siguen creciendo a buen ritmo y ya son responsables del 16% de esos ingresos (13% el trimestre anterior).

Apple está logrando que sus otras divisiones rescaten al iPhone cuando este está algo menos fuerte, y eso es una gran noticia para la empresa de cara al futuro. El único bache lo tuvieron en China, donde vendieron un 25% menos que el trimestre anterior y un 10% menos que en el mismo periodo del año pasado.

Hacia el “trillón” (americano) de dólares

Hace tiempo que se viene hablando de esa imparable marcha de Apple para convertirse en la primera “trillion dollar company” en referencia a una capitalización bursátil que por primera vez superaría el “trillón” americano. Como siempre este dato puede generar confusión por el uso de la escala numérica corta que se usa en países de lengua inglesa, mientras que en España y otros muchos países seguimos usando la notación larga en la que ese “trillón” americano equivale a nuestro billón.

Trillion

Sea como fuere, el logro sería histórico y volvería a catapultar la leyenda de Apple. Las previsiones apuntan que en los próximos 12 o 18 meses Apple alcanzará ese punto, y parece fácil que lo haga, porque ante nosotros tenemos el lanzamiento de los nuevos iPadiOS 11, y, sobre todo, los nuevos iPhonecon el iPhone 8 como protagonista absoluto.

Algunos analistas de Wall Street como Brian White creen que las acciones de Apple están baratas, y de hecho apuntan a que esos valores “están entre los más infravalorados del mundo”. Las acciones, que actualmente rondan los 150 dólares, podrían llegar a los 202 dólares en el próximo año. Apple necesita que sus acciones lleguen a los 192-195 dólares por acción para lograr superar el billón de dólares de capitalización bursátil.

Vía | Xataka

Netflix prepara el remake de ‘Los Caballeros del Zodiaco

Una de las series japonesas de anime más populares de todos los tiempos, ‘Los Caballeros del Zodiaco’ (‘Saint Seiya’), volverá a nuestras pantallas. Lo hará en Netflix en forma del remake de la producción original que Masami Kurumada creó a mediados de los años 80.

La nueva versión será de nuevo una serie de anime CG, y el título provisional será el de ‘Saint Seiya: Knights of the Zodiac’. No se conoce aún la fecha de estreno de una primera temporada que tendrá 12 episodios de 30 minutos de duración cada uno.

Vuelven los Caballeros

La producción original se emitió entre 1986 y 1989, y narraba la historia de un grupo de guerreros llamados ‘Caballeros’ (o ‘santos’) que luchaban del lado de la diosa griega Athena.

Zodiaco2

La empresa Toei Animation produjo un total de 114 capítulos divididos en tres arcos argumentales, y por lo visto este remake se centrará en narrar nuevas aventuras de ‘Los Caballeros del Zodiaco’ dentro de ese primer arco argumental.

Según Cinema Today, el director será Yoshihary Ashino, que ha trabajado en departamentos de animación de diversas producciones de animación. Esperamos poder tener más detalles de esta producción muy pronto.

Vía | Kotaku | Xataka

Este algoritmo de Google y el MIT mejora tus fotos con tu móvil antes incluso de que las saques

La fotografía computacional ha demostrado ser un área clave para que las cámaras de nuestros teléfonos móviles sigan ganando enteros, y Google ya reveló lo que se podía conseguir en este área con sus Google Pixel. Ahora quieren ir más allá, y para ello se han buscado un aliado de excepción:el MIT.

Investigadores de ambas entidades han desarrollado una serie de algoritmos que son capaces de retocar nuestras imágenes casi como lo haría un fotógrafo profesional, y hacerlo antes incluso de que pulses el botón de disparo.

Fotografías cada vez más profesionales (sin que tú lo seas)

Estos algoritmos se basan en el uso de aprendizaje máquina y redes neuronales que han entrenado con una serie de 5.000 imágenes creadas por Adobe y el MIT. Cada una de esas imágenes ha sido retocadas por cinco fotógrafos distintos, y el algoritmo ha aprendido qué tipo de mejoras se han realizado a las fotos para saber cuándo y cuánto es necesario tocar todo tipo de niveles y parámetros como el brillo, el contraste o la saturación.

Pixel

Aunque ya había desarrollos que mejoraban las fotos automáticamente, en este caso los algoritmos de Google y el MIT funcionan en tiempo real y eficiente, pudiendo actuar incluso como “filtros” para sacar fotos con el estilo fotográfico determinado. Al contrario que otros filtros “generalistas”, estos se adaptan a cada imagen de forma más específica.

La implicación de Google en este estudio podría apuntar a la integración de esta capacidad en sus futuros Google Pixel: la empresa ya ha dejado claro que hay mucho camino por recorrer en el campo de la fotografía computacional, y lo mejor de todo es que este tipo de mejoras harán que nuestras fotos tengan mejor aspecto que nunca sin que tengamos que hacer nada.

Más información | MIT News

Vía | Xataka

¿Estamos a las puertas de una nueva edad del hielo?

El sol se está quedando en silencio. En las últimas décadaslas machas solares han ido desapareciendo progresivamente de nuestra estrella favorita hasta lo que parece un mínimo histórico.

Las manchas solares son la forma con la que, desde hace más de 400 años, medimos y controlamos la actividad del sol. Una actividad que, por lo que sabemos está íntimamente ligada a las temperaturas y las condiciones climatológicas de la vida en la Tierra. Por eso, la progresiva desaparición de manchas ha hecho que muchos expertos se pregunten qué está pasando y si es posible que nos estemos aproximando a una nueva edad del hielo.

Escrito en las estrellas

Nasa S Sdo Observes Fast Growing Sunspot

Las manchas solares son regiones de la superficie solar con una temperatura más baja que sus alrededores. Es decir, son esas cosas negras que se ven en las fotos. Lo cierto es que, en realidad, no son negras sino más bien de un rojo brillante pero la diferencia de temperatura con el resto del sol hace que – por comparación – nos parezcan oscuras.

Desde 1610 o incluso antes, los astrónomos han estado contando las machas solares conforme iban apareciendo en la superficie del sol y han creado una de las bases de datos más fascinantes de la historia. Gracias a ella, hemos aprendido mucho y hemos descubierto algunas cosas sobre el comportamiento de las manchas. Por ejemplo, sabemos que el número de manchas solares va por ciclos de unos once años de duración entre su pico más alto y su pico más bajo. También sabemos que existen ciclos mucho más largos como el de Gleissberg que ocurre cada 80 años.

Ni contigo, ni sin ti, tienen mis males remedio

Sunspot Numbers

Antes de 1600 no tenemos recuentos de manchas solares, pero hemos descubierto que los niveles de carbono 14 correlacionan muy bien con la actividad del sol. Por eso, sabemos que hubo otros mínimos históricoscomo el de Oort entre 1010 y 1080, el de Wolf entre 1280 y 1350 o el de Spörer entre 1460 y 1550.

Es muy complejo establecer correlaciones directas entre la actividad del Sol y los sucesos de la Tierra, pero la relación está más que clara: si nos fijamos en el mínimo que ocurrió entre los años 540 y 660, veremos que cosas como la plaga de Justiniano, la entrada de los turcos en Anatolia, la unificación de China o el inicio de la expansión árabe ocurrieron justo en ese periodo.

Algunos científicos creen que estamos en un momento similar a 1645, la antesala de la Pequeña Edad de Hielo que congeló Europa y el mundo

También sabemos que (con la excepción del mínimo de Oort) entre los años 800 y 1200 hubo un periodo de máximos que coincide con el ‘periodo cálido medieval’, el momento histórico en el que Occidente, impulsado por las buenas cosechas y el calor, salió de la Edad Media. Casi 500 años después (entre 1645 y 1715) llegó el mínimo de Maunder, en el que las manchas solares prácticamente desaparecieron y el mundo vivió lo que conocemos como la Pequeña Edad del Hielo.

Con esta extraña relación bien presente, los científicos han descubierto que, en los últimos ciclos, el sol ha estado más quieto que de costumbre. Nos encontramos en un periodo de actividad parecido al de 1790-1820 que conocemos como mínimo de Dalton y que muchos confieren un papel clave en las malas cosechas y el encarecimiento del pan que acabó por desembocar en la Revolución Francesa. Esto hace que aunque los modelos predictivos no estén muy desarrollados, la hipótesis de la nueva edad de hielo esté sobre la mesa. Preparen la ropa de invierno, por si las moscas.

Vía | Xataka

Que no pare la música: comparamos Spotify, Apple Music, Deezer y Google Play Music

Antes, la elección de un servicio musical de streaming dependía mucho de la plataforma que utilizabas. Todas las compañías se aferraban a sus propias plataformas, y la competencia era muy excluyente. Pero a medida que ha pasado el tiempo eso se ha ido difuminando y ahora casi todo es compatible con todo. Incluso Apple tiene su aplicación de Apple Music para Android.

Así que la pregunta que queda es: ¿a quién le doy unos cuantos euros o dólares cada mes para poder despreocuparme de organizar mi música y tener gigantescos catálogos disponibles en mi bolsillo? Vamos a comparar las bondades y flaquezas de cuatro servicios musicales para ayudarte a decidir: Spotify, Apple Music, Deezer y Google Play Music.

Disponibilidad

Mobile Phone Iphone Music 38295

Antes que nada, hay que mirar si estos servicios están disponibles en nuestro país para descartar automáticamente los que no lo estén:

SPOTIFY APPLE MUSIC DEEZER GOOGLE PLAY MUSIC
ESPAÑA
MÉXICO
RESTO DE AMÉRICA LATINA

Ningún problema en este punto, todos los servicios están a mano. Los territorios en los que algunos servicios no están disponibles son algunos países africanos y asiáticos, pero en territorios de habla hispana la disponibilidad es total.

Catálogo y extras

New Note1498646867447

Echemos un vistazo al catálogo: cuantas más canciones, mejor. Pero la batalla por conseguir exclusivas hace que cada catálogo sea diferente. Además, la competencia ha hecho que cada servicio ofrezca contenido adicional para poder atraer la atención de los consumidores:

SPOTIFY APPLE MUSIC DEEZER GOOGLE PLAY MUSIC
CATÁLOGO Más de 30 millones de canciones 40 millones de canciones 40 millones de canciones 40 millones de canciones
EXCLUSIVAS Sin exclusivas Sí (último Álbum de Taylor Swift, “Views” de Drake) Sí (álbumes de directos de algunos artistas) Sí (emisora de radio especial para Samsung Galaxy S8)
CONTENIDO EXTRA Podcasts Planet of the Apps, Carpool Karaoke (próximamente), algunos documentales Videoclips de algunas canciones Suscripción a YouTube Red (dependiendo de disponibilidad)

Deezer, Google y Apple Music ganan en cuanto a cantidad de canciones, mientras que Spotify se queda atrás ofreciendo “sólo” 30 millones de canciones y la negativa de ofrecer contenido exclusivo. Lo que sí ofrecen es una plataforma para poder suscribirse a Podcasts, que diversifica el contenido.

En cuanto al contenido extra, Apple Music destaca con su show Planet of the Apps y la próxima llegada de Carpool Karaoke. Estamos hablando de shows en vídeo y documentales completos, un contenido que puede interesar aunque se vaya del enfoque central de la música. Mención especial también al hecho de que Google Play Music incluye YouTube Red, aunque está sólo disponible en unos pocos países (Estados Unidos, México, Australia, Nueva Zelanda y Corea del Sur).

Precio y ventajas

Precios Spotify

Miremos los costes de cada servicio. Todo el mundo sabe que una suscripción individual a un catálogo de música por streaming suele costar 9,99 euros o dólares mensuales, pero siempre hay alguna diferencia sutil que puede representar una ventaja para ciertos colectivos. Echemos un vistazo.

SPOTIFY APPLE MUSIC DEEZER GOOGLE PLAY MUSIC
SUSCRIPCIÓN INDIVIDUAL MENSUAL 9,99 euros mensuales 9,99 euros mensuales 9,99 euros mensuales 9,99 euros mensuales
SUSCRIPCIÓN INDIVIDUAL ANUAL 99 euros anuales, (8,25 euros al mes)
SUSCRIPCIÓN FAMILIAR 14,99 euros al mes, a dividir hasta por 6 personas (piden que todas vivan en una misma casa) 14,99 euros al mes, a dividir hasta por 6 personas (tienen que estar en un iCloud En Familia) 14,99 euros al mes, a dividir hasta por 6 personas 14,99 euros al mes, a dividir hasta por 6 personas
PERIODO DE PRUEBA PREMIUM Gratuito durante un mes 0,99 euros por tres meses de prueba
MODALIDAD GRATUITA Sí, con limitaciones No Sí, con posibilidad de almacenar canciones online
MODALIDAD PARA ESTUDIANTES Sí, 4,99 euros al mes Sí, 4,99 euros al mes No No

Lo que más puede interesar es el precio de las cuentas familiares: si se junta un grupo de seis personas en esta modalidad de suscripción cada una va a pagar 2,5 euros al mes. Es un precio mucho más atractivo que esos 9,99 euros mensuales, que hace que grupos de familias y amigos se unan para ahorrar dinero.

Aquí la limitación la tiene Apple: las personas que quieran utilizar una cuenta de Apple Music familiar tienen que estar ya unidas en un grupo de cuentas de Apple llamada En Familia. Esta cuenta está estrictamente pensada para familiares y te ata a cosas como que las seis personas compartan una tarjeta de crédito para las compras de aplicaciones y otro contenido que hagan desde sus iPhone.

Eso se traduce en más incomodidades para configurar una cuenta familiar de Apple Music, lo que hace que esos grupos que se unen prefieran usar alternativas. Hace poco comenté más a fondo este tema en Applesfera.

También hay diferencias grandes entre las modalidades gratuitas de cada servicio

Ojo que también hay diferencias en las modalidades gratuitas: no sólo es que escucharemos anuncios entre algunas canciones. Spotify no te deja reproducir canciones individuales o álbumes concretos desde el smartphone, sino que te obliga a escuchar listas de reproducción y tienes que hacerlo en orden aleatorio. En tabletas, esa limitación se levanta.

Deezer permite sólo sus “mixes” y “flows” en la modalidad gratuita, medida que debe haber sido resultado de la presión de la industria. Apple ni siquiera ofrece modalidad gratuita, aunque sí que te deja pagar 0,99 euros para usarlo tres meses. Es el periodo de prueba más largo de entre todos los rivales.

Pero quizás el más interesante para usar de modo gratuito es Google Play Music. No te permite escuchar nada del catálogo, pero sí que te deja subir hasta 50.000 canciones totalmente gratis para que las escuches desde el servicio y donde quieras. Para quien tenga una colección respetable en discos físicos o MP3, es perfecto.

Compatibilidad

Seleccion 001

Por último pero no por ello menos importante, hay que saber en qué dispositivos y plataformas vamos a poder utilizar cada servicio musical. Puede que dependiendo de lo que utilicemos nuestra decisión puede verse influenciada:

SPOTIFY APPLE MUSIC DEEZER GOOGLE PLAY MUSIC
IOS
ANDROID
WEB No, sólo previsualizaciones
WINDOWS Sí, a través de iTunes No, sólo complemento para Google Chrome y una aplicación para subir canciones
MACOS Sí, a través de iTunes No, sólo complemento para Google Chrome y una aplicación para subir canciones
LINUX Sí, paquete Debian que funciona con Ubuntu, pero no soportado oficialmente No No, pero hay clientes no oficiales No, sólo complemento para Google Chrome

En dispositivos móviles todos los servicios musicales cumplen. iOS y Android están plenamente cubiertos. En la web Apple Music es la única que falla, obligándote a usar iTunes para escuchar las canciones. Eso hace que no sea compatible en Linux. Google Play Music soluciona eso basándose en una web, y algunos acérrimos a Deezer han creado un cliente no oficial para Linux que puedes ver en Github. Si te pierdes, en Genbeta te enseñamos cómo instalarlo.

Spotify es el único servicio que se ha esforzado un poco en ser compatible en Linux, aunque ese esfuerzo no es para nada ambicioso. Te avisan de antemano que no hay soporte para el programa, y dicen que “intentarán” ser compatibles con más distribuciones de Linux en el futuro. De momento, tenemos un paquete para Debian que “debería” funcionar con Ubuntu. Con Windows y Mac no hay problemas de compatibilidad.

Entonces, ¿qué servicio es el mejor?

Pues esta respuesta no puede ser absoluta. No hay un servicio mejor para todo el mundo, sino que hay el servicio que mejor se adecua a cada persona. Pero sí que hay algo que ha cambiado con el tiempo: la compatibilidad y la disponibilidad en según qué países ha dejado de ser una limitación.

Así que ahora que nos podemos ignorar esas variables, escoger el servicio que más nos guste dependerá del catálogo y de si el contenido extra que ofrece cada servicio merece la pena. Si usas un Mac y un iPhone lo más cómodo para ti puede ser Apple Music, o la “universalidad” de Spotify y la comodidad de sus cuentas familiares te puede convencer más.

La experiencia de uso también cuenta, desde luego: puedes preferir la interfaz de Spotify en el móvil o puedes inclinarte por otras alternativas (no pocas veces he oído defensas a Spotify por su interfaz oscura). O si eres de los que priorizan la robustez, puede que defiendas a capa y espada por ecosistemas cerrados como Apple Music. Este último puede ser una ventaja para aquellos que utilizan sólo productos de la manzana mordida.

Nosotros sólo hemos puesto lado a lado todas las ventajas de cada servicio, pero la decisión es tuya.

Imágenes | emmolos

Vía | Xataka