

|
|
|


|
|
|


|
||
|


|
||
|
![]()
Dentro del universo de teléfonos móviles Android, existen numerosas marcas a las que podemos recurrir para adquirir nuestro próximo smartphone. Todas ofrecen una amplia variedad de modelos con diferentes características y precios. Entre ellas, Google se destaca por utilizar Android puro, ofrecer cámaras de excelente calidad y brindar un soporte superior. El próximo lanzamiento económico de la compañía será el Google Pixel 8a, con un diseño atractivo y bordes redondeados.
A la hora de elegir entre iOS y Android, debemos tener una decisión clara. A pesar de la popularidad del iPhone, Android abarca la mayor parte del mercado debido a la gran cantidad de modelos asequibles. Si bien algunas marcas, como Samsung y Google, ofrecen dispositivos más costosos, otras como Xiaomi, Oppo, Realme y Huawei ofrecen opciones más económicas.
El diseño del Google Pixel 8a incluye características premium, como cámaras de alta calidad, que suelen ser líderes en el mercado. Con el reciente lanzamiento de los modelos Pixel 8 y 8 Pro, Google presentó el SoC Tensor G3, que ofrecía un rendimiento similar al Snapdragon 8 Gen 2, posicionándose en la gama alta.
Los modelos Pixel 8 y 8 Pro tienen precios que comienzan en 799 euros y 1.099 euros, respectivamente. Afortunadamente, Google también ofrece opciones más asequibles, como el Pixel 8a. Según una maqueta reciente del Pixel 8a, su diseño de bordes redondeados puede recordar a un iPhone.
Se espera que el Google Pixel 8a se lance a mediados de 2024. Uno de los problemas detectados es el tamaño de los bordes, que parecen ser bastante prominentes en la imagen mostrada. Aunque no está claro si esto es una elección estilística o para reducir costos, el diseño de los biseles del Pixel 7a era similar pero más delgado.
El Pixel 7a se lanzó a principios de 2023 con un precio de 449,99 dólares, mientras que el Pixel 6a llegó a costar 349 dólares, ofreciendo una buena relación calidad-precio. Aunque aún no se conoce el precio del Pixel 8a, se espera que su lanzamiento tenga lugar en la segunda mitad de 2024. Este modelo debería incluir el SoC Google Tensor G3, por lo que, si se lanza a un precio similar a sus predecesores, tendremos un dispositivo Android muy competitivo.

Ya se puede considerar casi un escándalo debido a que algunos medios de información han publicado artículos sobre la cantidad de problemas que enfrentan los SSD SanDisk Extreme y Extreme Pro, la pérdida de datos que implica su rotura y cómo WD, matriz de SanDisk, está abordando la situación. La empresa Attingo reveló la realidad de estos SSD profesionales y afirmó que tenían ciertos defectos de hardware. En menos de 72 horas, SanDisk ha ofrecido una respuesta a estos problemas, negando tales afirmaciones.
Que una empresa de recuperación de datos como Attingo tenga que revelar y analizar los motivos de los fallos de un producto profesional indica cuántas unidades deben estar recibiendo. Attingo comentó que reciben al menos una persona cada semana con un disco duro externo SanDisk que ya no funciona debido a problemas de diseño y construcción del SSD, y especificaron que el proceso de soldadura es un problema.
SanDisk emitió un comunicado a PetaPixel negando las afirmaciones de hardware defectuoso y argumentos de mala implementación. La compañía se defendió con cuatro puntos clave: un proceso DFM riguroso, seguimiento de pautas IPC estándar, uso de pasta de soldadura de un proveedor líder y rigurosas calificaciones a nivel de producto antes del envío.
SanDisk sugiere que los problemas de firmware que afectaron ciertos SSD portátiles a principios de este año no estaban relacionados con problemas de hardware. La empresa cree que solucionaron exitosamente el problema con la actualización de firmware, aunque todavía están recopilando información y no niegan la posibilidad de un problema masivo.
Se espera nuevas declaraciones y más datos para aclarar la situación de los SSD SanDisk Extreme y Extreme Pro.

Sí, finalmente es jueves, lo que significa que el fin de semana está cerca y hay nuevos juegos gratuitos: EARTHLOCK y Surviving the Aftermath. Estos son los juegos disponibles para reclamar desde ahora hasta el próximo jueves en la Epic Games Store. No olvides que, incluso si no piensas jugarlos de inmediato, puedes reclamarlos y mantenerlos en tu biblioteca para disfrutar en cualquier momento.
EARTHLOCK es un juego independiente de rol y aventura con un estilo artístico de dibujos animados. Por otro lado, Surviving the Aftermath es un juego de simulación y estrategia que nos sumerge en un futuro postapocalíptico. Ambos juegos tienen valoraciones en su mayoría positivas en Steam. Puedes obtener ambos juegos desde la tienda de Epic Games. A continuación, te presentamos un tráiler, una breve descripción y los requisitos que debe cumplir tu PC. Ambos juegos son bastante asequibles y excelentes opciones para consolas portátiles.
EARTHLOCK gratis en la Epic Games Store:
Amon es un saqueador del desierto que vive en Zaber y nunca imaginó la aventura que le esperaba cuando se encuentra con una criatura muy peculiar. Únete a Amon y otros héroes memorables en este juego de rol por turnos y sumérgete en la emocionante travesía por el mundo de Umbra, un planeta misterioso, hermoso y duro que dejó de girar hace miles de ciclos.
El juego presenta un grupo único de personajes personalizables, cada uno con su personalidad y su propia historia de crecimiento. Saquea, explora y lucha con ellos mientras vas desde el lado del día eterno al lado de la noche perpetua. Para salvar Umbra, deberás desentrañar sus secretos, exponer sus sombras y vencer a un mal que sobrepasa los límites de tu imaginación.
Requisitos mínimos y recomendados de EARTHLOCK:
Se incluyen en la descripción del juego arriba.
Surviving the Aftermath gratis en la Epic Games Store:
Sobrevive y prospera en un futuro postapocalíptico donde los recursos son escasos pero las oportunidades abundan. Construye una colonia a prueba de desastres, protege a tus colonos y reconstruye la civilización en un mundo devastado.
Crea y administra una colonia de supervivientes después de un evento que destruyó el mundo. Construye más de 130 edificios y sobrevive en un entorno hostil lleno de peligros. Mantente alerta, ya que desastres naturales o catástrofes ambientales podrían destruir un asentamiento mal preparado.
Requisitos mínimos y recomendados de Surviving the Aftermath:
Se incluyen en la descripción del juego arriba.
EARTHLOCK y Surviving the Aftermath están disponibles de forma gratuita en la Epic Games Store. ¡No dudes en descargarlos y disfrutar de estos emocionantes juegos!

Los avances en los portátiles han sido significativos a lo largo del tiempo, evolucionando de dispositivos pesados con corta duración de batería a modelos livianos y de alta duración. Actualmente existen ultraportátiles compactos e incluso portátiles para videojuegos con GPU de gama alta bastante delgados. A menudo prestamos atención a las gráficas de NVIDIA, pero ahora resulta que la RX 7900M para portátiles supera a la RTX 4090 Mobile en Vulkan.
Con el lanzamiento de la nueva generación de tarjetas gráficas RTX 40, muchos esperaban un gran salto en rendimiento en portátiles. Al igual que en la versión de escritorio, las nuevas GPUs de NVIDIA demostraron ser impresionantes en su versión recortada. No obstante, las RTX 4050, RTX 4060 y RTX 4070 mostraron un margen de mejora limitado en comparación con la generación anterior. Por el contrario, la RTX 4090 presentaba un rendimiento equivalente a una RTX 3090 de escritorio.
La RX 7900M es un 9% superior en Vulkan frente a la RTX 4090 Mobile
Pasados ya unos meses desde la dominancia de NVIDIA en el mercado de escritorio y portátiles, parece que AMD va a contraatacar. La RX 7900M con RDNA 3, la GPU para portátiles más potente de AMD, ha aparecido en el benchmark Vulkan de Geekbench con una puntuación de 171.430 puntos, superando a la RTX 3080 Ti de escritorio y siendo ligeramente mejor que la RX 6900 XT y RX 7800 XT. En comparación con la RTX 4090 Mobile, la RX 7900M tiene un rendimiento superior en un 9% en Vulkan.
Sin embargo, en OpenCL, la situación cambia a favor de NVIDIA. La RX 7900M obtuvo 144.611 puntos en el benchmark OpenCL de Geekbench, un 11.5% menos que la RTX 4080 para portátiles y un 31% menos que la RTX 4090 de portátiles. En este benchmark, la RTX 4070 Ti también supera a la mejor opción de AMD, la RX 7900 XTX.
Cabe destacar que ambos benchmarks de Geekbench no son totalmente fiables en términos de rendimiento. Si queremos resultados más precisos para la RX 7900M, sería mejor esperar a ver pruebas en 3DMark o en videojuegos con esta GPU de portátiles.
Sobre la RX 7900M, emplea la arquitectura gráfica RDNA 3 e incluye 72 CU, lo que equivale a 4.608 núcleos. La GPU alcanza una frecuencia de 2.090 MHz, viene con 16 GB de memoria GDDR6 y 256 bits de bus. El TDP de este modelo varía entre 160 y 200W, superando a los 60-150W de la RTX 4080 para portátiles.

Continuamos discutiendo sobre los iPhone 16, que a pesar de estar a casi un año de su lanzamiento, ya están generando muchas conversaciones, especialmente en torno a su sistema de refrigeración de grafeno. Se espera que Apple utilice grafeno el próximo año, siguiendo la tendencia de otros fabricantes, para evitar problemas de sobrecalentamiento que han afectado a productos anteriores de la compañía.
A pesar de que los iPhone 15 Pro y Pro Max ofrecían el sistema en chip (SoC) más avanzado del mercado, no pudieron escapar de estos problemas. El Apple A17 Pro fue el primer chip fabricado a 3 nm, pero esto no garantizó automáticamente temperaturas bajas. El sobrecalentamiento ocurrió al ejecutar cargas de trabajo pesadas o mover juegos intensivos. Esto indica que Apple no anticipó este problema y no desarrolló una solución térmica adecuada. Sin embargo, esto parece haber cambiado con el desarrollo de un mejor sistema de refrigeración para el iPhone 16.
Kosutami mencionó en su cuenta de Twitter que “Apple está trabajando activamente en el sistema térmico de grafeno del iPhone 16 para resolver el problema de calentamiento existente anteriormente. La batería de la serie Pro cambiaría a una carcasa metálica por la misma razón”.
El sistema de refrigeración de grafeno del iPhone 16 es lo que debería haberse incorporado en el iPhone 15 Pro. Es común que Apple presente carencias en sus dispositivos y las resuelva en modelos futuros. Así, se espera que el iPhone 16 no tenga problemas de sobrecalentamiento gracias a la integración de grafeno. Cabe destacar que ningún otro smartphone de gama alta ha sufrido problemas de sobrecalentamiento, ya que las empresas suelen invertir en sistemas de refrigeración avanzados.
Apple lanzó una actualización para solucionar estos problemas, pero si no hay un buen sistema de refrigeración, estos problemas seguirán existiendo en cierto grado. Aunque una cámara de vapor sería una opción lógica, ya que es más eficiente y cubre un gran espacio dentro del dispositivo, Apple optará por el grafeno en el iPhone 16 debido a que es menos costoso y más liviano.
Cabe mencionar que los Google Pixel 8 y Pixel 8 Pro incluyen grafeno, pero aún experimentan problemas de sobrecalentamiento. Por lo tanto, una simple lámina de grafeno en el iPhone 16 no será la solución completa. Es posible que los iPhone 16 también incorporen una carcasa metálica en las baterías para mejorar la disipación del calor.
La noticia del iPhone 16 utilizando grafeno para evitar problemas de sobrecalentamiento apareció por primera vez en El Chapuzas Informático.

Basándose en los rumores más recientes de la industria originados en China, NVIDIA habría dejado de fabricar sus tarjetas gráficas GeForce RTX 4070 Ti y GeForce RTX 4080. La compañía se enfocaría en sus modelos SUPER, es decir, las GeForce RTX 4070 Ti SUPER y las GeForce RTX 4080 SUPER.
Por lo tanto, resulta natural esperar que estos dos GPU, conforme se vendan, se encuentren agotados. En última instancia, esto implica que las variantes SUPER reemplazarán a los modelos originales. Esto podría ayudar a que estas GPU alcancen precios iguales o incluso inferiores a los modelos actuales, pero primero será necesario vender el stock existente.
Las GeForce RTX 4070 Ti y GeForce RTX 4080 no han cumplido ni un año de vida desde su lanzamiento. La NVIDIA GeForce RTX 4070 Ti se lanzó el 5 de enero de 2023, mientras que la NVIDIA GeForce RTX 4080 se lanzó el 16 de noviembre de 2022. Si la información es correcta, no habrían pasado ni un año desde su lanzamiento hasta la interrupción de su producción.
Este cambio es necesario para evitar la canibalización de modelos debido a precios y rendimientos muy similares. De no haberse eliminado y reemplazado estos modelos, habrían existido 9 GPUs RTX 40, lo que podría haber generado confusión en las opciones de compra disponibles para los usuarios.
Con respecto a las nuevas variantes SUPER, la NVIDIA GeForce RTX 4080 SUPER ofrecería una configuración de 10.240 CUDA Cores, junto con los mismos 16 GB de capacidad GDDR6X y la misma interfaz de memoria de 256 bits. Por su parte, la NVIDIA GeForce RTX 4070 Ti SUPER tendría 8.448 CUDA Cores y una posible mejora en la interfaz de memoria, pasando de 192 a 256 bits. Esta mejora podría aumentar su rendimiento en un 20% en comparación con la RTX 4070 Ti original, manteniendo su precio recomendado de 799 dólares.
Esta evolución de las tarjetas gráficas de NVIDIA podría afectar al mercado, llevando a AMD a ajustar sus precios en consecuencia. Sin embargo, esto solo podrá verse cuando las nuevas variantes SUPER estén disponibles en el mercado.

El PCI-SIG ha avanzado en el desarrollo de un estándar que aborda la creciente demanda de mayor ancho de banda en el sector. Por esta razón, han estado diseñando una serie de cables, conocidos como CopprLink, que permitirán a las empresas de hardware mejorar la comunicación entre sus productos. Estos cables no solo permitirán una mayor velocidad, sino también una mayor longitud que será necesaria para mantener una velocidad constante y la transmisión segura de datos sin pérdidas. Actualmente, CopprLink se encuentra en proceso de certificación para PCIe 5.0 y PCIe 6.0.
Cabe destacar que CopprLink no es un sucesor de los conectores o cables estándar actuales, como el 12VHPWR o el 12V-2×6, como han afirmado erróneamente algunos sitios web. Muchos no han comprendido completamente su forma, función y objetivo, y dado que hay muy poca información disponible, se ha difundido información incorrecta.
Hasta ahora, no se ha proporcionado mucha información sobre el nuevo estándar, que actualmente se encuentra en revisión y se espera que finalice el 2 de febrero de 2024. El PCI-SIG no ha proporcionado mucha información más allá de anunciar que el nuevo esquema de nombres para los cables internos y externos será CopprLink, y que las especificaciones para estos cables está en desarrollo y planeado para lanzarse en 2024.
CopprLink se desarrolla para ofrecer una mayor flexibilidad a los diseñadores de sistemas y fomentar la innovación. Estará disponible para uso en centros de datos, servidores, almacenamiento, redes y aceleradores. Los cables podrán conectar desde chips individuales hasta placas base y tarjetas, así como tarjetas a otros dispositivos. También se utilizará como conexión board-to-board entre racks. Además, requerirá PCIe 5.0 o PCIe 6.0 para funcionar correctamente.
La ventaja principal de CopprLink será permitir un mayor grado de flexibilidad en el diseño de sistemas sin comprometer el rendimiento o la transmisión de datos, mejorando la seguridad y la topología de los servidores. Sin embargo, es poco probable que estos beneficios se introduzcan en los PC convencionales.

La carga inalámbrica está cada vez más presente en nuestra vida cotidiana, desde smartphones y relojes hasta ratones y auriculares. El estándar Qi V1.0 dará paso a la reciente presentación del Wireless Power Consortium (WPC), específicamente a su sucesor, Qi V2.0, que promete una serie de mejoras técnicas.
Esta nueva generación de carga inalámbrica cumplirá con algunas de las promesas hechas por el consorcio, como conexión magnética, carga más rápida, mayor eficiencia y mayor comodidad, proporcionando una experiencia de usuario mejorada que unifica a toda la industria tecnológica bajo estándares claros.
Lo interesante del estándar Qi V2.0 es que ha tenido un largo tiempo de desarrollo, lo que ha permitido a la mayoría de los fabricantes presentar productos de última generación diseñados para ser compatibles con este estándar, aunque aún no estén certificados. Más de 100 dispositivos esperan pruebas y verificación para obtener su certificado de compatibilidad, como el iPhone 15.
El estándar Qi V2.0 contará con dos perfiles diferentes según el tipo de carga inalámbrica del dispositivo. El WPC basó su tecnología de carga magnética en la tecnología MagSafe de Apple, colaborando para crear un estándar en la industria. El segundo perfil incluye una mejora en la potencia extendida (EPP), que es compatible con el estándar Qi V1.0 actual.
Esto significa que cualquier dispositivo de Apple u otros fabricantes en el mercado serán compatibles con Qi V2.0. En el caso de Apple, solo sus productos implementarán esta tecnología. Asimismo, el WPC mencionó que los dispositivos ya no necesitarán una alineación perfecta entre ellos y el cargador, lo que facilita la carga en diferentes posiciones.
Con más de mil millones de dispositivos en el mundo usando la versión Qi V1.0 y la adición de productos de Apple a Qi V2.0, el número de dispositivos compatibles aumentará rápidamente en 2024. Esto también abre las puertas a otros dispositivos que anteriormente no podían cargarse de forma inalámbrica, unificando diversas tecnologías en un único estándar global. Lo siguiente será conocer los más de 100 productos compatibles con Qi V2.0 que esperan la certificación.

Cuando las tarjetas gráficas NVIDIA RTX llegaron al mercado, revolucionaron el sector. Las RTX 20 ofrecían Tensor Cores, que potenciaban el rendimiento en procesos como el Ray Tracing y DLSS. Comparativamente, las GTX 10 y modelos inferiores no pudieron competir al mismo nivel, lo que llevó a la segmentación del mercado. Hoy en día, más de 100 millones de PC utilizan las NVIDIA RTX 30 y RTX 40, lo que les permite beneficiarse de un rendimiento significativamente superior en inteligencia artificial (IA) gracias a TensorRT-LLM.
La elección entre una GPU de AMD, Intel o NVIDIA depende tanto del presupuesto como de las preferencias personales. A pesar de un lanzamiento problemático, Intel ha mejorado su rendimiento gracias a actualizaciones de controladores, y las recientes rebajas han generado un mayor interés en sus productos.
Por otro lado, AMD ha experimentado un éxito moderado con sus RX 7000, pero a nivel global, NVIDIA domina el mercado en gran parte debido a las características adicionales de sus GPU. Las tarjetas gráficas de NVIDIA ofrecen el mejor rendimiento en Ray Tracing y son compatibles con DLSS 3.5 y Frame Generation.
El rendimiento superior en IA de NVIDIA se debe principalmente a sus núcleos Tensor, pero eso no es todo. La empresa asegura que multiplicará por cinco la aceleración de IA en PC con Windows 11 y sus tarjetas RTX 30 y 40 al agregar Tensor RT-LLM al sistema operativo. Más de 100 millones de usuarios de RTX podrán aprovechar esta biblioteca para acelerar la IA a partir del 21 de noviembre con la llegada de TensorRT-LLM v0.6.0 y los controladores de NVIDIA.
NVIDIA y Microsoft están colaborando para integrar una interfaz de ChatAPI en OpenAI, una API de chat basada en IA que facilita tareas como resumir documentos, redactar correos electrónicos y analizar datos. Esta colaboración permitirá que ChatAPI interactúe con datos a nivel local sin depender de la nube. También serán compatibles con LLM, como Llama 2 de Meta y NV LLM.
Si está interesado en probar TensorRT-LLM de NVIDIA, puede encontrarlo en GitHub, donde se lanzó la primera versión oficial (0.5.0). La versión 0.6.0, que promete un rendimiento de IA cinco veces superior, se lanzará el próximo 21 de noviembre.
Este artículo fue publicado originalmente en El Chapuzas Informático con el título “NVIDIA multiplica por 5 la aceleración de IA en Windows 11 para las RTX 40 y RTX 30”.

Con la llegada de Meteor Lake a mediados de diciembre, Intel busca recuperar su dominio en el mercado de portátiles. Si bien su rendimiento podría no ser sorprendente, su bajo consumo y gráfica integrada serán clave en este campo, donde larga duración de batería y buen rendimiento en dispositivos finos y ligeros son esenciales. El rendimiento de la tGPU (Tile-GPU) de Intel Meteor Lake se revela ser similar al de la Radeon 780M de AMD.
Intel está en un momento crucial, ya que podría finalmente tener éxito en el sector de portátiles. La compañía ha estado lanzando procesadores con más núcleos y frecuencia, pero sin considerar la eficiencia. Los últimos procesadores de la serie 7000 de AMD también siguen esta tendencia con frecuencias más altas de lo habitual.
La mayor diferencia entre Intel y AMD es en el área de gráficos, donde una iGPU como la Radeon 780M supera a todo lo que ofrece Intel. Esto ha llevado a que las consolas portátiles con hardware de PC adopten tecnología AMD. Sin embargo, la tGPU de Meteor Lake será capaz de competir con lo mejor de AMD. Aunque anteriormente se afirmó que superaría el rendimiento de la AMD 780M, ahora se ha demostrado que esto no es completamente cierto.
La tGPU de Meteor Lake alcanza 27.249 puntos en OpenCL, utilizando un Core Ultra 7 155H y su respectiva GPU, casi igualando el rendimiento de la Radeon 780M del Ryzen 7840U con 27.992 puntos. A pesar de que esta puntuación sitúa a Intel en rendimientos similares a los de la mejor iGPU de AMD, debemos recordar que se trata de su procesador de bajo consumo. La tGPU en los Meteor Lake más rápidos, como el Ultra 9 185H, probablemente tendrá un rendimiento aún mejor.
Por comparación, la GTX 1060, que hasta hace poco era una de las GPU más populares, obtiene 29.934 puntos en esta prueba, mientras que una RTX 3050 de portátil duplica el rendimiento con 55.123 puntos. Aunque el benchmark de Geekbench OpenCL no es un indicador completamente fiable del rendimiento final, los resultados de benchmarks sintéticos de 3DMark proporcionarán una medida más precisa.
En resumen, la tGPU de las CPU Intel Meteor Lake sorprende con un rendimiento casi en línea con una GTX 1060 o 780M, lo que podría significar un cambio importante en la competencia entre Intel y AMD en el mercado de portátiles.

Ayer por la tarde, Amazon Luna, el servicio de streaming de videojuegos de Amazon, comenzó a operar en España, así como en Francia e Italia. Como era de esperar, los suscriptores de Amazon Prime pueden jugar a algunos juegos de forma gratuita. Además, existe un servicio de pago con una extensa lista de juegos e integración con la suscripción de Ubisoft+, permitiéndote disfrutar del catálogo de juegos de Ubisoft desde la nube.
A diferencia de Google Stadia, pagar por Amazon Luna implica suscribirse a Luna+ por 9,99 euros al mes, incluyendo una amplia lista de videojuegos rotativos, en lugar de pagar solo por acceso al servicio y luego comprar cada juego por separado. Amazon Luna es accesible desde cualquier dispositivo, incluyendo PC, Mac, Chromebook, teléfonos iPhone y Android, dispositivos Fire de Amazon y Smart TV de Samsung y LG.
Hay varios tipos de suscripción y precios disponibles en Amazon Luna España. Sin pagar tendrás acceso a juegos como Fortnite, Trackmania y otros que irán rotando con el tiempo. Por 4,99 euros al mes, obtendrás Jackbox Games, un catálogo de juegos para jugar con amigos. Por 9,99 euros al mes, puedes suscribirte a Luna+, que incluye títulos como Batman: Arkham, Alien Isolation y Resident Evil 2.
Además, puedes adquirir Ubisoft+ e integrarlo con Amazon Luna para acceder a títulos recientes como Assassin’s Creed Mirage y futuros lanzamientos como Avatar: Frontiers of Pandora.
Para celebrar su llegada, Amazon ofrece el Mando Luna con tecnología Cloud Direct en oferta por 39,99 euros, que a partir del 27 de noviembre costará 69,99 euros. Este mando, diseñado específicamente para su uso en Amazon Luna, se conecta directamente a los servidores de Amazon por WiFi para proporcionar una experiencia de juego de baja latencia y es compatible con dispositivos móviles y PC.
Amazon Luna ofrece los mismos beneficios en España, Francia e Italia que en otros países donde está disponible, como Estados Unidos, Reino Unido, Alemania y Canadá. Se puede acceder a Luna desde cualquier dispositivo compatible y cuenta con una amplia colección de videojuegos, desde entretenimiento y clásicos retro hasta títulos AAA, asegurando que siempre haya algo interesante para jugar.

Aunque la ciencia y la tecnología son campos diferentes, pueden colaborar estrechamente. Un ejemplo destacado es la informática y el hardware, donde se combinan nuevos materiales y experimentos para desarrollar chips más rápidos. No obstante, nuestro enfoque ahora es cómo la biología cuántica y la inteligencia artificial (IA) han sido utilizadas para modificar genes microbianos y generar combustibles renovables.
A pesar de décadas estudiando el genoma humano, animal y vegetal, todavía enfrentamos limitaciones al modificarlos para obtener resultados deseados. La clave puede estar en los microorganismos, que pueden sintetizar y transformar una amplia gama de sustancias. Muchos procesos en el mundo son llevados a cabo por estos diminutos organismos, presentes en todas partes.
La inteligencia artificial ha permitido mejorar las herramientas de modificación genética CRISPR. Investigadores del Laboratorio Nacional de Oak Ridge han modificado el genoma de microbios utilizando su experiencia en biología cuántica, bioingeniería y IA. La IA se utilizó específicamente para perfeccionar la tecnología CRISPR Cas9, en la cual un ARN guía dirige la enzima Cas9, que se une y corta la cadena del genoma en la posición deseada.
Mejorar el ARN guía usando biología cuántica permitió estudiar los efectos de la estructura electrónica en las propiedades químicas. Esta estructura es crucial para que el complejo enzima ARN guía Cas9 se una al ARN del microbio. Los científicos desarrollaron un modelo de IA llamado “bosque aleatorio iterativo” que incluía datos de 50,000 ARN guía para el genoma de E. coli. Con esto, pudieron identificar pistas esenciales para aumentar la eficiencia de los ARN guía y mejorar la fermentación bacteriana y la producción eficiente de combustibles renovables.
El resultado fue un mayor entendimiento de las reglas de diseño y la creación de ARN guía con una eficiencia de corte óptima para un conjunto de especies microbianas. Para realizar esto, utilizaron el superordenador Summit del ORNL con una velocidad de 200 petaFLOPs. Ahora, pueden crear mejores herramientas CRISPR Cas9 para todas las especies, incluido el genoma humano, lo que podría mejorar la investigación y el desarrollo de nuevos medicamentos centrados en áreas específicas del genoma.
En resumen, la IA ha permitido modificar genes microbianos para generar combustibles renovables y podría tener aplicaciones significativas en ámbitos como la medicina.

Con la llegada de los procesadores Intel de 14ª generación, el mercado recibe una nueva generación de placas base con chipset Z790, como la ASUS ROG MAXIMUS Z790 DARK HERO que analizamos hoy. Esta placa base de gama alta ofrece excelentes prestaciones para armar un equipo de máximo rendimiento.
La ASUS ROG MAXIMUS Z790 DARK HERO es compatible con los procesadores Intel de 14ª, 13ª y 12ª generación, soporta hasta 192 GB de memoria DDR5 y cuenta con una amplia conectividad, incluyendo dos slots PCIe 5.0 x16, un slot M.2 PCIe 5.0, y un sinfín de puertos USB y conexiones de red de última generación.
El precio de esta placa base es elevado, pero ofrece una gran calidad de diseño y componentes. Gracias a su compatibilidad con los procesadores de mayor TDP, sus características avanzadas y su gran conectividad, la ASUS ROG MAXIMUS Z790 DARK HERO es una excelente opción para aquellos que buscan montar un equipo de rendimiento extremo.

Cada vez es más frecuente encontrarnos con casos de inteligencia artificial generando contenido falso, lo que contribuye a la proliferación de desinformación y noticias falsas. Incluso hemos visto este tipo de contenido en situaciones tan delicadas como el conflicto entre Gaza e Israel. Google y YouTube son conscientes de la necesidad de controlar este contenido generado por IA, por lo que están considerando etiquetar los videos creados con inteligencia artificial o incluso eliminarlos, especialmente en el caso de deepfakes y noticias falsas.
La inteligencia artificial generativa ha captado el interés de muchas personas, ya que facilita enormemente la creación de contenido en diferentes formatos, como imágenes, texto, música y videos. Si bien la creación de videos con IA es más compleja, el avance tecnológico y compañías especializadas en deepfakes hacen posible este tipo de contenido.
Se espera que YouTube implemente herramientas para etiquetar videos creados con IA en los próximos meses. El proceso de etiquetado dependerá de los propios creadores, aunque aún no se sabe si habrá alguna forma de automatizarlo. La intención es que cualquier contenido generado mediante IA sea etiquetado para garantizar la transparencia.
La etiquetación de los videos creados por IA será solo un componente de los esfuerzos de YouTube por combatir este tipo de contenido. También se planea eliminar videos que promueven la desinformación y contienen información falsa, incluyendo deepfakes y grabaciones de audio. Los videos que no cumplan con los términos de uso de YouTube serán eliminados, aunque cada caso será evaluado considerando si se trata de un video serio, satírico o humorístico.
Estas medidas son similares a las normativas recientes sobre el uso de actores generados por IA, donde se permite su uso en contextos humorísticos no lucrativos, pero se prohíbe en fines comerciales sin consentimiento previo.

Microsoft ha detectado la lucrativa oportunidad en el negocio de la Inteligencia Artificial (IA), y muestra de ello es el lanzamiento de la CPU Azure Cobalt 100 y el acelerador de IA Azure Maia 100. La compañía ha desarrollado su propio hardware para dar soporte a sus plataformas en la nube Azure, igualándose así a otros gigantes como Google y Amazon en el ámbito de servidores, centros de datos y la nube.
La decisión de Microsoft de desarrollar su propio hardware se debe en parte al monopolio que NVIDIA posee en el mercado. Dicha situación ha llevado a precios exorbitantes y ha impulsado a otras compañías a buscar sus propias soluciones en lugar de depender de NVIDIA.
En cuanto a las especificaciones, el Microsoft Azure Cobalt 100 es un procesador de 128 núcleos basado en la arquitectura ARMv9. Ha sido diseñado de forma nativa para dar soporte a la nube y promete aumentar hasta en un 40% el rendimiento actual de las CPU ARM. Aunque Microsoft no reveló todos los detalles técnicos, sabemos que esta CPU utiliza la plataforma Arm Neoverse CSS, con núcleos Neoverse N2 personalizados por la propia empresa.
Además de la CPU Azure Cobalt 100, Microsoft también desarrolló el acelerador de IA Azure Maia 100 para competir con NVIDIA en la aceleración de IA en servidores. El Azure Maia 100 está fabricado por TSMC a 5nm y contiene 105.000 millones de transistores. Aunque no se han proporcionado referencias de rendimiento frente a otras soluciones de AMD y NVIDIA, se sabe que cada acelerador de IA Azure Maia 100 alcanza un ancho de banda de 4,8 TB/s.
A pesar de que es posible que no pueda competir directamente con NVIDIA, Microsoft podría apuntar a un mercado de aceleración de IA de bajo costo con estos desarrollos.
El CEO de OpenAI, Sam Altman, expresó su entusiasmo por el chip Maia en una publicación en el blog de Microsoft y destacó cómo la arquitectura de IA de extremo a extremo de Azure, ahora optimizada con Maia, permite entrenar modelos más potentes y abaratar sus costos para los clientes.

Al elegir un nuevo smartphone, debemos tener claro si preferimos un iPhone o un Android, teniendo en cuenta no solo el sistema operativo, sino también el diseño y las características del teléfono. Es sorprendente la cantidad de iPhones que Apple vende, ya que la compañía ha logrado obtener una cuota de mercado superior al 20%. Esto implica que, a nivel mundial, 1 de cada 5 smartphones es un iPhone, con dispositivos que pueden costar cerca de 1.000 euros. Esta cifra incluso supera la popularidad de Samsung, la marca de teléfonos Android más conocida.
Recientemente, un usuario de Reddit, “theEdmard”, compartió una experiencia de compra engañosa en una tienda oficial de Apple. Aparentemente, ordenó un iPhone 15 Pro Max oficial, pero recibió una estafa que resultó ser un teléfono Android con interfaz iOS. Además de algunos daños en el empaque, el teléfono venía con un protector de plástico, algo insólito en un iPhone oficial. La pantalla también tenía bordes incorrectos y su interfaz se parecía pero no era la real.
El comprador señala que aunque la réplica podría engañar a aquellos menos conocedores de la tecnología, no se trata de un iOS real. El usuario no ingresó sus datos personales, ya que sospechó que podrían ser robados. El dispositivo venía con aplicaciones como Facebook, TikTok y YouTube preinstaladas y ofrecía una experiencia de uso de baja calidad con problemas en la cámara y el sistema operativo, además de mostrar signos de uso previo. Aunque este caso parece aislado, se han reportado más casos similares en foros de Apple.
El artículo original sobre este tema fue publicado en El Chapuzas Informático y se titula “Apple está enviando desde su tienda móviles falsos Android haciéndolos pasar por iPhone 15 Pro Max”.

Se reveló que, a pesar de rumores iniciales que sugerían lo contrario, Apple estaría interesada en lanzar un nuevo modelo de teléfono inteligente económico, el iPhone SE 4, en respuesta a las ventas decepcionantes del iPhone 15, especialmente en China. Este dispositivo, que sería el sucesor del SE 3, vendría con una serie de novedades y características sorprendentes, como el chasis del iPhone 14 y una pantalla OLED.
Apple suele mantener el secreto sobre sus nuevos productos, pero los rumores más recientes permitieron la creación de un render del supuesto iPhone SE 4 de bajo costo. El dispositivo tendría un chasis de aluminio de grado aeroespacial cepillado del iPhone 14, lo cual permitiría disipar de manera eficiente las temperaturas del SoC. Además, el tamaño de la pantalla sería de 6.06 pulgadas, que Apple redondearía a 6.1 pulgadas para facilitar su venta y recordación.
El iPhone SE 4 incluiría una pantalla OLED gracias a los acuerdos con LG y Samsung, pero al parecer no contaría con la tecnología ProMotion. En cambio, tendría una tasa de frecuencia de refresco fija. También se dice que utilizaría un puerto USB-C para cumplir con las regulaciones de la UE, pero con una velocidad de transferencia limitada a USB 2.0 para reducir costos.
En cuanto a la cámara, se rumorea que tendría una única lente de 48 MP. Por otro lado, el dispositivo no incluiría la tecnología Dynamic Island, pero sí una muesca en la pantalla, siendo el único modelo en presentar este detalle entre todas las variantes disponibles. Se ha hablado también de un nuevo botón de acción en la serie SE, sin embargo, aún no se han revelado sus funciones específicas.
El iPhone SE 4, que sería compatible con las redes 5G, se espera que llegue el próximo año, ya que todos los módem con dicha tecnología provienen de Qualcomm, lo que requiere la renovación de acuerdos de licencia. Apple ha estado trabajando en su propio módem para no depender de Qualcomm, pero el lanzamiento se ha retrasado varias veces.
En cuanto al precio, los rumores son demasiado dispares para determinar un rango específico, por lo que habrá que esperar más información sobre el iPhone SE 4, que se especula que será lanzado en la primera mitad de 2024.

Se han filtrado las especificaciones principales de la nueva línea de portátiles Samsung Galaxy Book 4, que incluirá hasta cinco variantes con diferentes características y precios. En lugar de optar por Qualcomm o AMD, Samsung ha elegido Intel con Meteor Lake y NVIDIA como colaboradores para competir con la gama MacBook de Apple. Se espera que estos portátiles estén disponibles a partir del 14 de diciembre.
La serie de portátiles Samsung Galaxy Book 4 podría llegar en 2024, aunque algunos modelos podrían lanzarse en diciembre de este año. Meteor Lake está atrayendo la atención de varios fabricantes, y la estrategia de Samsung podría poner en peligro el liderazgo de Apple en el mercado de portátiles. Los cinco modelos de la gama son Galaxy Book 4, Galaxy Book 4 360, Galaxy Book 4 Pro, Galaxy Book 4 360 Pro y Galaxy Book 4 Ultra.
Cada variante está diseñada para ofrecer la mayor movilidad y eficiencia posibles, con la excepción del Galaxy Book 4 Ultra, que se centra en el rendimiento para gaming. Los precios de los modelos oscilan entre los 1.000 y los 2.600 euros, aproximadamente. Los portátiles Galaxy Book 4 están equipados con CPU Intel Meteor Lake, LPDDR5 y GPU NVIDIA RTX 40.
La filtración de especificaciones sugiere que Samsung está decidido a competir con Apple y sus MacBook Air y Pro, especialmente teniendo en cuenta las expectativas de rendimiento y eficiencia de Meteor Lake.

Los MacBook Pro de Apple se han consolidado como referentes en el mercado de portátiles. Aunque su rendimiento ya era bueno con los procesadores Intel y gráficas AMD, fue la llegada de los chips ARM de Apple lo que los convirtió en una opción aún más atractiva. Sin embargo, nos centraremos en los modelos más antiguos de MacBook, fabricados entre 2016 y 2020, ya que enfrentan un problema en el que la suciedad se acumula y termina dañando la pantalla.
Cuando Apple decidió desarrollar sus propios chips y prescindir de Intel, AMD y NVIDIA como proveedores, no sabíamos qué esperar. Afortunadamente, la primera generación, conocida como M1, resultó ser una grata sorpresa. Gracias a la arquitectura ARM, estos chips ofrecen un rendimiento excepcional con un consumo energético mucho más bajo que los procesadores x86. Esto permitió que los dispositivos de Apple se destacaran aún más en el mercado de portátiles, superando en duración de batería a casi todos los portátiles con Windows.
Sin embargo, no todo es perfecto en el mundo de Apple. Los MacBook Pro más antiguos, fabricados entre 2016 y 2020, sufren un problema de acumulación de polvo que puede terminar rompiendo sus pantallas. La delicadeza de los cables de pantalla flexibles y el polvo acumulado causan daños en la pantalla, dejando el portátil inutilizable. Este problema ha sido reconocido y se le ha llamado “puerta de polvo”.
Aunque Apple no se ha pronunciado al respecto, varios modelos de MacBook Pro están afectados, principalmente los vendidos entre 2016 y 2020, antes de la introducción de los chips M1. El polvo se acumula en las rejillas de ventilación y algunas unidades tienen problemas de apertura con el tiempo, permitiendo el ingreso de más suciedad. Esto, a su vez, puede afectar a los cables de la pantalla. Otra posible entrada para el polvo son las pequeñas aberturas en el teclado.
Los modelos de MacBook Pro afectados incluyen el A1989, A2251, A2289, A2338 y A2141 (el más vulnerable). Si se acumulan suficientes casos, es posible que Apple tome medidas al respecto. No obstante, la responsabilidad de mantener el portátil limpio y libre de polvo recae en los usuarios. En el caso del MacBook, esto es más complicado que en un portátil estándar, lo que complica la situación. Por ejemplo, si los usuarios afectados acuden a una tienda Apple, podrían decirles que la culpa es de ellos por no mantener sus dispositivos limpios.
La noticia sobre los MacBook Pro con problemas en las pantallas debido a la acumulación de polvo fue publicada por primera vez en El Chapuzas Informático.


Model: CFI-2000
UPC: 711719573029
Brand New, USA Specs
LIMITED QTY – MOQ APPLIES
Interested? Ask for price and MOQ!
🇪🇸 Hablamos Español
🇧🇷 Falamos Português
Regards,
A2 Trading Corp.
6020 NW 99th Ave, Unit #306
Doral, FL 33178
Email: sales@a2tradingcorp.com
Mobile/Whatsapp: +1 (786) 252-9848
Website: www.a2tradingcorp.com


|
||
|

NVIDIA ha abordado el tema que discutimos en el artículo inicial de la RTX 5090: habrá un cambio en su bus. Los 512 bits que se filtraron, como mencionamos anteriormente, podrían reducirse a 384 bits si se cumplía una condición: debía incluirse más caché L2 (o una caché de nivel 3, que aún no se ha descartado). Y, finalmente, parece que esto sucederá, según la última filtración del filtrador más confiable para los productos NVIDIA. El GB202 tendrá un bus de 384 bits y GDDR7 proporcionado por Samsung.
Había dos opciones a considerar: utilizar más controladores de memoria de 32 bits ocupando un área más grande, o en su lugar, utilizar más caché L2 (o L3 si hubiera sido el caso) para compensar el ancho de banda. NVIDIA seguirá este último enfoque, iniciado por las RTX 40, y la tendencia será tener un bus de datos más pequeño y una caché L2 más grande, justo lo que predijimos en el artículo explicativo que NVIDIA lanzó para la arquitectura Ada Lovelace.
NVIDIA RTX 5090 (GB202), los 512 bits de bus fueron un sueño: 384 bits y GDDR7
Eso es lo que tendremos. La opción lógica, dada la estrategia adoptada con Ampere y especialmente Ada Lovelace, está clara y seguirá siendo así. Ha sido Kopite7Kimi quien ha arrojado luz sobre el tema y ha revelado más datos clave sobre lo que nos espera con la GPU GB202, el modelo más avanzado de las RTX 50, y donde no se espera, teniendo en cuenta lo que AMD hará con RDNA 4 y el rendimiento que ofrecerá, un GB200 como tal.
Por lo tanto, el GB202 finalmente contará con 384 bits, compartiendo este número con la RTX 4090, pero con algunas diferencias significativas. En primer lugar, en su momento se dijo que estos 512 bits estarían ligados a 192 unidades de streaming multiprocesador (SM) y 24.576 shaders, cifras que cambiarán debido al simple hecho de que la caché L2 aumentará y, por lo tanto, las cachés L0 y L1 también tendrán que aumentar, así como el número de SM.
El nuevo recuento establecido es aún más impresionante: 204 SM, lo que da un total de 26.112 shaders. Dicho esto, hay dos cifras que se consideran aquí para la caché L2 y que también estarán relacionadas con la GDDR7.
La caché L2 vuelve a ser el centro del debate
Aunque no debería haber tal debate, como tampoco lo hay con AMD. La caché L2 será la protagonista más allá del bus de 384 bits, y aquí surgen dos rumores adicionales: 128 MB o 96 MB. La proporción con Ada Lovelace para el mismo bus es de 234 shaders por cada MB, por lo que, con el primer valor, 128 MB, nos daría una proporción totalmente simétrica con los SM, es decir, 204 shaders por cada MB, lo que implica una proporción menor.
Esto se compensará con la mayor velocidad de las GDDR7, que obviamente deben ser proporcionadas por Samsung para estar disponibles a finales del próximo año. Por lo tanto, y sabiendo que la velocidad será de 32 Gbps, el ancho de banda para cada bus será el siguiente:
– 384 bits con GDDR7 a 32 Gbps: 1.536 GB/s
– 320 bits con GDDR7 a 32 Gbps: 1.280 GB/s
– 256 bits con GDDR7 a 32 Gbps: 1.024 GB/s
– 192 bits con GDDR7 a 32 Gbps: 768 GB/s
– 128 bits con GDDR7 a 32 Gbps: 512 GB/s
Anchos de banda mejorados considerablemente para todas las RTX 50
En otras palabras, el problema que tenía NVIDIA con el ancho de banda que debía ser compensado con la caché L2 y un bus menor para incrementar los SM ya no sería un problema. De hecho, la RTX 5090 tendrá un 52,38% más de ancho de banda confirmado.
Esto significa que NVIDIA incluso podría optar por 96 MB de caché L2 y reducir el ratio SM/MB a menos de 200 shaders, siempre que el equilibrio de la arquitectura lo permita. Dicho esto, el porcentaje de aumento de rendimiento por ancho de banda para cada serie de las RTX 50 varía.
Por ejemplo, la RTX 5080 con los hipotéticos 256 bits a 32 GB/s obtendría una mejora del 42,85% en comparación con la actual RTX 4080. La RTX 5070 obtendría un 52,32% de mejora frente a la RTX 4070, mientras que la RTX 5060 lograría un impresionante 88,23% con un bus de 128 bits frente a la RTX 4060. Por lo tanto, curiosamente, la RTX 5080 volvería a ser la más perjudicada en este aspecto.
Como aún desconocemos la configuración de SM de los demás chips, no podemos ofrecer datos comparativos sobre lo que se espera en términos de potencia para todos ellos, pero lo que es seguro es que no les faltará ancho de banda.
La fuente original de esta información es El Chapuzas Informático, que informó de la actualización de las especificaciones de la RTX 5090 (GB202) a 384 bits y 24 GB de GDDR7.

Siguiendo el ejemplo de Huawei, Xiaomi se ha adentrado en el negocio de los vehículos eléctricos con su modelo SU7, desarrollado en colaboración con Beijing Automotive Industry Holding Co. Ltd (BAIC). Al igual que Huawei, Xiaomi se asoció con un experto en la industria automotriz para facilitar el lanzamiento de su primer vehículo eléctrico. En cuanto a diseño, el Xiaomi SU7 muestra ciertas similitudes con los modelos de Porsche y Tesla e incluso cuenta con un alerón retráctil. Este vehículo estará disponible en diferentes versiones.
El Xiaomi SU7 ha sido filtrado por el propio Ministerio de Industria y Tecnología de la Información (MIIT) de China durante el proceso de homologación. Aunque los fabricantes de vehículos suelen evitar este tipo de filtraciones, Xiaomi y Huawei buscan causar un gran impacto en el mercado local. Los detalles del vehículo han sido publicados por CarNewsChina.
El SU7 es un sedán eléctrico de 4.99 x 1.96 x 1.45 metros, con una distancia entre ejes de 3000 mm. Dependiendo de la versión, se ofrecerá con llantas de 19″ o 20″. El modelo base viene en dos variantes, con o sin sensor LiDAR, y al igual que Huawei, incluye frenos Brembo y neumáticos Michelin. Curiosamente, el vehículo cuenta con un sistema de reconocimiento facial para permitir conducir, al estilo de los smartphones.
El SU7 tiene un motor eléctrico de 220 kW con tracción trasera, aunque también estará disponible una versión de tracción a las cuatro ruedas con una potencia máxima de 495 kW. El modelo más económico utilizará baterías LFP, mientras que los más avanzados contarán con baterías NCM de CATL, que son más caras.
El modelo básico tiene una velocidad limitada a 210 km/h, mientras que el modelo de gama alta alcanza los 265 km/h. La autonomía no fue revelada, pero es de esperar que varíe según el modelo. El MIIT informa que habrá tres versiones: SU7, SU7 Pro y SU7 Max. Algunas de estas versiones contarán con un alerón retráctil y un sistema ETC que permite a los conductores pagar automáticamente peajes sin detener el vehículo. El sistema operativo utilizado será el HyperOS, desarrollado internamente por Xiaomi.
Se espera que el Xiaomi SU7 comience a fabricarse en masa en diciembre y las primeras unidades se entreguen en febrero de 2024.

Esta semana, ASUS ha sido protagonista de una curiosidad al lanzar una placa base ROG MAXIMUS Z790 HERO EVA-02 EDITION de Evangelion con un error ortográfico. La placa base, que tiene un precio aproximado de 800 euros, está inspirada en el anime Neon Genesis Evangelion, y presenta un error en el nombre, donde en lugar de decir “Evangelion”, dice “Evangen lion”.
Aunque no es un error grave, resulta peculiar que un componente de PC para coleccionistas con un precio tan alto tenga un error ortográfico tan evidente en el mismo nombre que sirve para atraer a los compradores. Sin embargo, es importante mencionar que esta placa base no se venderá en grandes cantidades, por lo que el número de afectados será muy pequeño.
En realidad, los usuarios han resultado beneficiados con esta situación, ya que al montar el PC, el error ortográfico no se notará. Como disculpa, ASUS ha decidido ampliar la garantía de la placa base en un año adicional. Ofrecer un año más de garantía por un error que nadie verá no parece ser un mal negocio.
Curiosamente, los usuarios comenzaron a hablar de este problema en septiembre pasado, pero ASUS no se pronunció oficialmente hasta que los medios no se hicieron eco de la noticia. Parece que si el problema no hubiera sido de conocimiento público, ASUS no habría escuchado a los usuarios realmente afectados y, por lo tanto, no habría ofrecido una solución.
En un comunicado, ASUS pidió disculpas por el error ortográfico y anunció un programa de sustitución, proporcionando una pieza decorativa corregida para que los usuarios finales puedan reemplazarla.
ASUS ha afirmado que entienden la importancia de este asunto y están dedicados a resolverlo con prontitud. Si los usuarios tienen alguna pregunta o duda, pueden ponerse en contacto con el servicio de atención al cliente de ASUS.

Hace unos meses, comenzaron a circular rumores acerca de una posible consola portátil de Sony. Dadas las altas expectativas generadas por el éxito de la PSP y el potencial de PS Vita, las especulaciones crecieron. No obstante, luego se aclaró que esta no sería realmente una consola tradicional, sino una tableta conocida como Q-Lite, luego Project Q, y finalmente PlayStation Portal. Este dispositivo se lanzará hoy mismo por $199, y las primeras impresiones no son muy favorables, ya que experimenta problemas de lag en algunos juegos.
Al discutir acerca de Project Q y revelar sus especificaciones, nos dimos cuenta de que estábamos frente a un dispositivo similar al control de la Wii U. Esencialmente, se trata de una tableta de 8 pulgadas y resolución 1080p a 60 Hz con un control, que permite jugar los juegos de PS5 vía streaming. Para que esto funcione correctamente, tanto la PS5 como la PlayStation Portal deben estar conectadas a la misma red Wi-Fi.
El propósito principal de la PlayStation Portal, que pesa 530 gramos, es transmitir en streaming los juegos de PS5. A diferencia de las consolas convencionales, la PlayStation Portal no es en sí un dispositivo autónomo, ya que no podemos jugar con ella independientemente, ni usar aplicaciones como YouTube o Netflix. Su única función es jugar a juegos de PS5 usando Remote Play. La PlayStation Portal cuenta con una batería de 4.370 mAh que se carga a través de USB-C, altavoces estéreo y una entrada para auriculares de 3.5 mm.
El control incluido en la PlayStation Portal funciona de manera similar al DualSense, aunque sin el cuerpo central del controlador y manteniendo funciones como los gatillos adaptativos y la respuesta háptica. Aunque puede parecer bastante pesado teniendo en cuenta que no posee un procesador, ni una tarjeta gráfica o un sistema de refrigeración grande, sus 530 gramos de peso son alrededor de 110 gramos más que los de una Switch OLED (420 gramos) y el doble de los de una Switch Lite (277 gramos).
Aunque el streaming funciona, la latencia es un problema, especialmente en juegos que requieren acciones rápidas, como Tony Hawk’s Pro Skater 1+2. Las opiniones sugieren que los juegos de un jugador en solitario, que no requieran respuestas rápidas, son más adecuados para jugar en streaming. Con todo esto en cuenta, la pregunta es si vale la pena invertir los 219.99 euros que cuesta en España.
![]()
Silicon Motion anunció su nueva controladora SSD en China, la SM2508, para competir con la reconocida Phison E26. A diferencia de la controladora de Phison, que es más lenta y ha experimentado problemas de sobrecalentamiento, esta nueva controladora promete un mejor rendimiento y menor temperatura. Se espera que el problema de sobrecalentamiento se resuelva en desarrollos posteriores mediante actualizaciones de firmware.
Al igual que la Phison E26, la controladora Silicon Motion SM2508 es la más avanzada en su clase, pero aún no aprovechará al máximo la interfaz PCI-Express 5.0 x4. Para ello, habrá que esperar a una nueva generación de controladoras que llegarán a finales de 2024. A pesar de no aprovechar completamente la interfaz por el momento, la SM2508 dará un respiro a los fabricantes de SSD en cuanto a problemas de temperatura.
Según Silicon Motion, los SSD PCIe 5.0 se convertirán en un estándar para 2025, lo que significa que los PCIe 4.0 serán la gama “baja” y, por lo tanto, reducirán sus precios.
En cuanto a las especificaciones técnicas, la controladora SSD Silicon Motion SM2508 está fabricada en un proceso de 6 nm, admite hasta 8 canales de memoria NAND Flash con velocidades de hasta 3.600 Mbps y utiliza una CPU de 5 núcleos con un consumo energético ultra bajo de hasta 3,5W. Esta controladora permite crear SSD NVMe 2.0 con velocidades de lectura de hasta 14,5 GB/s y escritura de hasta 14 GB/s.
La controladora SM2508 de Silicon Motion representa un gran avance en eficiencia energética con una reducción del consumo energético en un 45% y un área un 20% más pequeña en comparación con los 7 nm. No obstante, aún se desconoce cuándo llegarán los primeros SSD con esta controladora al mercado, pero se espera que estén disponibles a principios del próximo año, con anuncios posibles en el CES de Las Vegas en enero. La eficiencia energética y las temperaturas serán el principal enfoque de los fabricantes, especialmente considerando que los SSD actuales ya incorporan sistemas de refrigeración con doble ventilador.
Comprar Magazine reaches over 100,000 monthly impressions. Active buyers seek out Comprar Magazine to purchase their inventory from trusted distributors.
Buyers from LATAM are looking to buy quality products. Top 10 countries that actively seeking wholesale products on Comprarmag.com: Venezuela, Mexico, Ecuador, Peru, Colombia, Panama, Chile, Bolivia, Uruguay, and Argentina. Reach LATAM buyers!
