NVIDIA toma la delantera en EE.UU.: Carrera súper candente con TSMC para producir nuevos chips exclusivos para China

NVIDIA se adelanta a EE.UU.: Super Hot Run a TSMC para fabricar sus nuevos chips destinados a China

El tiempo es crucial y la administración Biden ha dejado en claro que bloqueará rápidamente todos aquellos chips destinados al mercado chino que intenten eludir las restricciones establecidas. La declaración de intenciones estaba principalmente dirigida a NVIDIA, ya que actualmente tienen tres nuevas GPU derivadas de las existentes y que cumplen con los requisitos solicitados por EE. UU. Sin embargo, Huang, CEO de NVIDIA, sabe que el objetivo de Biden y Raimondo es evitar que cualquier chip tecnológicamente avanzado llegue a China, por lo que NVIDIA ha solicitado un nuevo Super Hot Run (SHR) a TSMC.

NVIDIA hizo un pedido URGENTE a TSMC, intentando estar por delante del gobierno estadounidense. Ya habían diseñado los nuevos chips, tres en concreto, antes de que se impusieran las restricciones. Por ello, el tiempo se ha acortado al máximo y ahora TSMC tiene que apresurarse para satisfacer los pedidos encargados, debido a la presión de China.

Esta es la tercera generación de chips específicos para China, que intenta lograr la independencia de los Estados Unidos con el hardware de Huawei y SMIC, pero los dólares siguen fluyendo hacia NVIDIA y no hacia las empresas nacionales.

China depende de NVIDIA, AMD e Intel para la inteligencia artificial y, en menor medida, del hardware de Amazon u Microsoft. Lo último que se supo sobre los tres nuevos chips de NVIDIA es que estaban listos excepto el H20, que se retrasó para enero. La información más reciente indica que todos se retrasarán debido a que TSMC está saturada nuevamente.

El motivo de esta saturación es el Super Hot Run que NVIDIA ha solicitado a TSMC para los chips de IA dirigidos a China, como el H20, L20 y L2.

Se ha informado que NVIDIA teme represalias una vez más y, por lo tanto, ha solicitado el SHR a TSMC para los tres chips destinados a China. Teniendo en cuenta que esto implica un costo adicional para cada chip, NVIDIA debe estar muy segura de su decisión al tratar este tema tan crítico con su fabricante de chips.

¿Ha aceptado la administración Biden estos chips como aceptables y aptos? ¿Aprovecha NVIDIA esta situación para enviar la mayor cantidad de chips posible y así vender más en el menor tiempo posible? Y finalmente, ¿cumplirá EE. UU. su amenaza de imponer nuevas restricciones a los chips de IA destinados a China? Las respuestas llegarán a partir de enero, pero está claro que este tema está lejos de resolverse.

Millonarios veteranos de NVIDIA enfrentan acusaciones de semi-jubilación: ¿Cuál es la opinión de Huang?

NVIDIA tiene empleados veteranos que ya son millonarios y se les acusa de estar en semi-jubilación, ¿qué piensa Huang?

NVIDIA sigue disfrutando de un gran éxito en el mercado, tanto que empiezan a surgir pequeños dramas internos dentro de la empresa. Uno de estos dramas involucra empleados, dinero y la gestión del trabajo. ¿Son muchos de los empleados de NVIDIA millonarios? ¿Están algunos en un modo semi-jubilación debido a su éxito financiero? Jensen Huang, CEO de NVIDIA ha abordado estas preguntas recientemente.

NVIDIA ha estado dominando el mercado de inteligencia artificial y el de las GPU, lo que ha llevado a un aumento significativo en el valor de sus acciones. En este contexto, se ha reportado que durante una reunión en la sede de NVIDIA el mes pasado, se abordó un rumor que indica que los empleados más veteranos de la empresa (aquellos con más de 5 años en la compañía) han entrado en una especie de modo semi-jubilación debido a su éxito financiero.

Cuando Huang enfrentó la pregunta, las fuentes afirman que su respuesta reflejó su opinión sobre el trabajo y la responsabilidad individual: “Trabajar en NVIDIA es como un deporte voluntario, cada empleado actúa como su propio CEO y gestiona su tiempo. Son decisiones que deben tomar los adultos”.

Aparentemente, los empleados nuevos en la empresa suelen estar sorprendidos por la forma en que NVIDIA opera, especialmente por la gestión del tiempo de los empleados más veteranos, quienes se han beneficiado de un aumento del 1.200% en el valor de las acciones que poseen si llevan más de 5 años en la empresa y del 12.000% en promedio para aquellos que llevan más de 10 años. Estos nuevos empleados acusan indirectamente a los veteranos de estar menos motivados y trabajar menos duro.

Sin embargo, es importante destacar que la cultura laboral en NVIDIA no es propicia para despedir a empleados. En lugar de despedir a alguien que no está rindiendo bien, se le asigna un grupo de apoyo o se le traslada a un área en la que pueda ser útil. Según una fuente interna: “Es más difícil que te despidan en NVIDIA que que te contraten”.

Huang es un CEO muy popular entre sus empleados, con una tasa de aprobación del 98% en Glassdoor. Los trabajadores respaldan a su CEO y los nuevos empleados deben adaptarse a la cultura laboral de NVIDIA y entender que cada supervisor es responsable de su propio tiempo y resultados.

Aunque no se sabe si los empleados de menor rango trabajan más que los de niveles más altos, lo que sí es evidente es que Huang no da por sentado el éxito de su empresa ni subestima a la competencia. Incluso afirmó que “no me despierto orgulloso y confiado todos los días, me despierto doblemente preocupado”. Esto muestra que el CEO de NVIDIA no se relaja, y este ejemplo debe ser seguido por todos los empleados, independientemente de su situación financiera.

Descubre el revolucionario iPhone 17 Pro Max: el primer smartphone de Apple con triple cámara de 48 MP cada una

El iPhone 17 Pro Max será el primer móvil de Apple con 3 cámaras de 48 MP

Cada vez más personas se unen al mundo de Apple con sus iPhones y el sistema operativo iOS. Los usuarios de iPhone suelen actualizar sus dispositivos con frecuencia, no necesariamente porque funcionen mal o estén desactualizados. Apple genera un gran interés con el lanzamiento de cada nueva generación. Se espera que el iPhone 17 Pro Max, que no llegaría hasta 2025, sea el primer teléfono de Apple en presentar tres cámaras de 48 megapíxeles, incluyendo el teleobjetivo.

Recientemente, Apple lanzó sus iPhone 15, y los modelos Pro y Pro Max ofrecieron importantes novedades. Estos incluían el nuevo SoC llamado A17 Pro, una pantalla mejorada y cámaras avanzadas, con el Pro Max especialmente destacado. Esto se debió a la incorporación de una cámara periscópica que aumentó el zoom óptico hasta 5x. Si bien hasta el momento Apple no había realizado cambios significativos en estos lentes, los próximos modelos se centrarán en mejorarlos.

Según Jeff Pu, analista de Haitong International Securities, las futuras generaciones de iPhone verán mejoras en la fotografía y el video. El iPhone 16 Pro y Pro Max serán los primeros en contar con cámaras ultra gran angular de 48 MP, superando claramente a las actuales. Recordemos que el modelo tope de gama actual, el iPhone 15 Pro Max, utiliza una cámara principal trasera de 48 MP, una cámara gran angular de 12 MP y un teleobjetivo de 12 MP.

Con esto, los iPhone 16 Pro Max tendrán dos de sus cámaras con 48 megapíxeles. Aunque esto no garantiza automáticamente una mejor calidad, sí debería traducirse en una mayor resolución y nitidez. Sin embargo, no debemos enfocarnos solo en la cantidad de megapíxeles al evaluar la calidad de una cámara, ya que existen teléfonos Android con cámaras de 200 MP que no son particularmente sorprendentes.

El iPhone 17 Pro Max mejorará aún más su teleobjetivo con 48 megapíxeles. Este modelo, que llegará en 2025, tendrá un total de tres cámaras de 48 megapíxeles: principal, ultra gran angular y teleobjetivo. Este sería el primer iPhone con tal configuración, ya que Apple tiende a ser conservador en ciertas especificaciones. Por ejemplo, los iPhones solían tener poca RAM en comparación con los dispositivos Android, y no fue hasta hace poco que los iPhones incluyeron más memoria.

En el caso de la RAM, esto se debía a que iOS consumía menos recursos que Android y no requería tanta memoria. Ahora, vemos que los iPhone 15 Pro y sus 8 GB de RAM son comparables a los dispositivos Android. Del mismo modo, el aumento de megapíxeles en las cámaras seguirá la misma tendencia, ya que 12 MP puede parecer insuficiente en comparación con los teléfonos Android. Como se mencionó antes, los megapíxeles no garantizan la calidad, y los iPhones actuales y de generaciones anteriores siguen siendo de los mejores teléfonos para tomar fotos y videos. Por último, la cámara del iPhone 17 Pro Max estará optimizada para las gafas Vision Pro, que se lanzarán en 2024.

En resumen, el iPhone 17 Pro Max será el primer teléfono móvil de Apple con 3 cámaras de 48 MP, marcando un hito en la evolución de los dispositivos de la marca.

Mejora tus juegos favoritos: Descubre cómo un mod permite fusionar AMD FSR 3 y NVIDIA DLSS 3

Un mod te permite integrar el AMD FSR 3 Frame Generation en cualquier juego con NVIDIA DLSS 3

Las buenas noticias para aquellos usuarios con tarjetas gráficas modestas incluyen un mod creado por “Nukem9”, que permite reemplazar la tecnología NVIDIA DLSS 3 por el AMD FSR 3 con Frame Generation. Esto básicamente permite a cualquier usuario disfrutar de una mejora significativa en el rendimiento al aplicar este mod.

Cabe destacar que la tecnología AMD FSR 3 es compatible con cualquier GPU, lo que significa que incluso los usuarios con tarjetas NVIDIA podrán beneficiarse de ella. Es importante recordar que NVIDIA DLSS 3 solo es compatible con la serie GeForce RTX 40, lo que significa que aquellos usuarios con GPUs más antiguas podrán utilizar AMD FSR 3 para experimentar el Frame Generation y mejorar el framerate, lo cual es ideal para aquellos con GPUs menos potentes.

El ejemplo mostrado aquí es el juego Cyberpunk 2077 utilizando AMD FSR 3 Frame Generation con una NVIDIA GeForce RTX 3080 a una resolución de 1440p. Combinado con un Intel Core i7-12700K, 32 GB de memoria RAM y un overclock adicional, el juego funciona en calidad Alta con Ray Tracing a un rendimiento promedio de 20,75 FPS. Al activar la tecnología NVIDIA DLSS en modo de calidad, se alcanza un rendimiento promedio de 40 FPS. Aún más interesante es el resultado al ejecutar el juego con AMD FSR 3 en modo de calidad junto con Frame Generation: se obtiene una media de 71,6 FPS, lo que permite que el juego se ejecute de manera fluida. Esto casi triplica el rendimiento del juego sin ninguna tecnología de escalado.

Aunque existen tecnologías como AMD FSR 3, Intel XeSS y NVIDIA DLSS 3, el problema radica en la implementación de estas tecnologías en el desarrollo de videojuegos. Pocos juegos incluyen estas tres tecnologías. Assassin’s Creed Mirage, por ejemplo, contó con tecnologías de AMD, NVIDIA e Intel, lo que fue sorprendente, ya que el juego tenía una asociación tecnológica con Intel. Por otro lado, Starfield tenía una asociación tecnológica con AMD y sólo incluyó la tecnología de escalado AMD FSR. A pesar de ser una tecnología abierta y utilizable por otros fabricantes de GPU, el rendimiento será siempre superior utilizando la respectiva tecnología propia de cada fabricante.

Lamentablemente, aunque todas las compañías tienen plugins para que los desarrolladores de videojuegos puedan implementar fácilmente sus tecnologías, sigue siendo poco común encontrar juegos que se adapten a cualquier GPU. Por lo tanto, la ayuda final siempre llega en forma de mods creados por la comunidad. Una modificación en particular permite integrar el AMD FSR 3 Frame Generation en cualquier juego que utilice NVIDIA DLSS 3.

AMD supera a NVIDIA en IA: el sorprendente MI300X ofrece el doble de velocidad en vLLM y mejora un 30% en TensorRT-LLM frente al H100

AMD replica a NVIDIA en IA: el MI300X es el doble de rápido en vLLM y un 30% mejor en TensorRT-LLM que el H100

Para nosotros, el lanzamiento de las GPU suele centrarse en el gaming, con modelos como NVIDIA RTX, AMD RX o Intel Arc. Sin embargo, para las compañías centradas en IA, las GPU de NVIDIA y AMD para IA son las más codiciadas. Las grandes empresas optarán por aquellas que ofrezcan el mejor rendimiento con un precio acorde. Después de ver cómo NVIDIA superaba a lo mejor de AMD hace unos días, ahora AMD ha vuelto a declararse victorioso utilizando software optimizado para IA, donde la MI300X con vLLM supera a la H100 utilizando TensorRT-LLM.

ChatGPT podría considerarse el catalizador que disparó el interés en la IA. Teniendo en cuenta que solo ha pasado un año desde su lanzamiento en noviembre de 2022, es sorprendente cómo ha cambiado todo. Las compañías han dejado de lado otros sectores y se han centrado en la inteligencia artificial, considerada como uno de los mercados más importantes en la actualidad tecnológica. NVIDIA, en particular, ha aumentado sus ingresos gracias a la velocidad de sus GPU para IA.

AMD no se rinde y su GPU MI300X con vLLM es un 30% más rápida que la H100 con TensorRT-LLM

La empresa que ofrezca el mejor rendimiento en IA atraerá a clientes de servidores y centros de datos, además de aquellos que utilizarán el hardware para entrenar modelos de IA propios. NVIDIA ha logrado liderar las ventas en este aspecto y hace unos días mostró cómo su H100 era el doble de rápida que la MI300X de AMD, la GPU más potente de AMD para IA.

NVIDIA superó a AMD en inferencia, demostrando que la MI300X no podía competir, y acusó a AMD de hacer trampas. Ahora, AMD ha contraatacado utilizando software IA optimizado, mostrando que en pruebas de rendimiento de inferencia con el modelo Llama 2 70B (creado por Meta), la MI300X supera ampliamente a la NVIDIA H100 HGX en vLLM. Al utilizar TensorRT-LLM en NVIDIA y vLLM en AMD, AMD vuelve a ganar con un 30% de rendimiento adicional y una latencia ligeramente menor que la de NVIDIA.

AMD acusa a NVIDIA de comparaciones injustas de rendimiento en IA

Ahora es AMD quien acusa a NVIDIA de comparaciones injustas debido a varias razones. Se utilizó TensorRT-LLM en las H100 en lugar de vLLM, lo que favorece el rendimiento de NVIDIA en algo que AMD no puede usar. Además, AMD afirma que las pruebas realizadas por NVIDIA no eran equitativas, ya que usaron FP16 para la GPU Instinct MI300X y FP8 en las H100. AMD también sugiere que NVIDIA invirtió los datos de rendimiento publicados por AMD con respecto a la latencia relativa.

Las pruebas de rendimiento publicadas ahora buscan una comparativa “más justa” con su rival, mostrando que incluso utilizando TensorRT-LLM en las NVIDIA no es suficiente para ganar a AMD. Con seguridad, ambas compañías continuarán compitiendo para establecer su supremacía en IA, ya que hay muchas ventas en juego. NVIDIA planea lanzar sus próximas H200 en 2024, que usarán la arquitectura Blackwell y serán aún más rápidas.

Así, AMD responde a NVIDIA en IA: la MI300X es el doble de rápida en vLLM y un 30% mejor en TensorRT-LLM que la H100, según informa El Chapuzas Informático.

Primeros prototipos revelados: Intel, Samsung y TSMC desvelan transistores CFET revolucionarios para los chips del futuro

Intel, Samsung y TSMC muestran los primeros prototipos de transistores CFET, el futuro de los chips de la próxima década

Hace unos meses, comenzamos a hablar acerca del futuro de los chips, ya que GAA (Nanosheet) es una realidad en Samsung, pronto lo será en Intel y se retrasará notablemente en TSMC. Por lo tanto, y considerándolo como el presente, el siguiente paso en los transistores y su organización es CFET, antes de llegar a la segunda generación de GAA llamada Forksheet. Dado que aún hay mucho tiempo por delante y que el avance es complicado, Intel, Samsung y TSMC han presentado los primeros prototipos de CFET durante la IEEE International Electron Devices Meeting, revelando sus distintos enfoques. ¿Quién tiene el mejor diseño preliminar?

Los distintos tipos de transistores han evolucionado desde FinFET y sus variantes hasta GAA y sus respectivas versiones, y se espera que en unos años se den paso a las posteriores versiones de CFET. Como ya sabemos, GAA ha traído al mercado las Nanosheets como dos partes dentro de un transistor, que desde la perspectiva tradicional, son en realidad dos transistores. Aunque puede resultar difícil de comprender, aquí presentaremos una simplificación y luego profundizaremos en el tema.

En FinFET, había una sola compuerta vertical (Gate) donde se controlaba la corriente y su flujo mediante una aleta (Fin). Con GAA, todo se vuelve más complejo ya que esa aleta se ha dividido en varios Fins verticales, que además tienen más área de contacto con la compuerta.

El siguiente paso, como mencionamos antes, es Forksheet, el cual agrega más complejidad como la segunda generación (evolución, según algunos ingenieros) de GAA, ya que las Nanosheets verticales se dividen en dos tipos, nFET y pFET, que ahora están conectadas a una pared dieléctrica que, dependiendo del diseño, cumple con la función de inversor.

Después de esto, y ya en la próxima década, aparece el mencionado CFET, el cual divide completamente los nFET y pFET. La forma en que se interpreta este hecho es lo que vamos a conocer por primera vez hoy. ¿Cómo han diseñado Intel, TSMC y Samsung su interpretación de CFET?

Intel ha diseñado un inversor para sus transistores CFET y lo presentó en el IEEE. El diseño aún tiene muchos detalles por revelar, pero sí se han compartido los aspectos más importantes. Los bocetos preliminares de TSMC y Samsung mostraron que estos diseños serían laterales, es decir, la disposición entre nFET y pFET sería horizontal al estar divididos ahora. Sin embargo, Intel toma un enfoque diferente, con un diseño de apilamiento vertical 3D. Esto presenta el desafío de cómo conectar verticalmente nFET y pFET y cómo suministrar energía a ambos estando separados verticalmente. La solución de Intel es un inversor, un circuito simple de conexión para obleas de silicio que está unido a Power Via, o sea, a la tecnología BSPDN de Intel (en su interpretación, para ser más precisos).

Marko Radosavljevic, ingeniero principal de Intel en transistores, lo explica de la siguiente manera:

“Usamos PowerVia para conectar el dispositivo superior a la parte posterior de la oblea y usamos los contactos directos de la parte posterior para conectar el dispositivo inferior. Dado que estos dispositivos están apilados uno encima del otro, no existe una forma directa de conectar el dispositivo inferior al lado superior de la oblea, por lo que tenemos que hacerlo como se acaba de describir”.

Intel ha compartido más información, llamando a los nFET y pFET como N-EPI y P-EPI. Este sistema tiene dos ventajas claras y una desventaja. Comenzando por lo negativo, es realmente complejo de diseñar y lograr. Sin embargo, por otro lado, el sistema de inversor CMOS diseñado envía el mismo voltaje de entrada a ambas compuertas para nFET y pFET, lo que significa que la salida es lógicamente la inversa de dicha entrada para ambos.

La segunda ventaja es que, al lograr esto, se consigue el mencionado apilamiento vertical y esto mejora el área total, lo que debería llevar a una mayor densidad en MTr/mm2. Sin embargo, esto solo se logrará si Intel consigue compactar cada transistor verticalmente manteniendo lo dicho anteriormente.

En cuanto a TSMC, la compañía afirma que su CPP es mejor que el de Intel, alcanzando 48 nm, lo que iguala sus cifras en el nodo N3 actual. Por otro lado, Samsung, que fue pionero en GAA al dejar los diseños FinFET antes que nadie, presentó un CPP de entre 48 nm y 45 nm en el IEEE, mucho mejor que el de Intel. Sin embargo, estas cifras son para nFET y pFET individuales, no conectados horizontalmente entre Nanosheets. Tampoco hay datos sobre un posible inversor y su CPP.

Dadas las presentaciones de los tres diseños y sus primeros bocetos reales, es importante entender que aún estamos a 6 o 7 años de que lleguen al mercado, por lo que aún hay tiempo para que Intel, TSMC y Samsung continúen desarrollando estos nuevos tipos de transistores CFET, que sin duda representan una nueva revolución para los futuros chips.

Descubre los increíbles monitores ZOWIE XL2586X y XL2546X: diseñados para eSport con velocidad de hasta 540 y 240 Hz.

ZOWIE XL2586X y XL2546X: monitores para eSport que alcanzan los 540 y 240 Hz

ZOWIE, la división de juegos de BenQ, ha anunciado el lanzamiento de dos monitores eSport: ZOWIE XL2546X y XL2586X. Ambos cuentan con paneles Fast TN que ofrecen altas tasas de refresco y utilizan la tecnología DyAc 2 con un nuevo diseño de doble retroiluminación para un movimiento nítido y precisión en los juegos. Además, los dos monitores ofrecen ajuste ergonómico y selección automática del modo de color.

ZOWIE se centra en desarrollar equipos profesionales para eSports y ha escuchado atentamente las opiniones de los jugadores. Desde la introducción de la serie XL en 2010, la compañía ha mejorado continuamente la tecnología de sus paneles, el control del software y la experiencia del usuario.

La tecnología DyAc 2 es una actualización de DyAc/DyAc⁺, ahora utilizando un sistema de doble retroiluminación con un control de mayor precisión. Esto logra una mayor reducción del desenfoque por movimiento y minimiza las imágenes fantasma, además de suavizar la salida de luz para facilitar la adaptación ocular.

Los monitores BenQ ZOWIE XL2586X y XL2546X tienen especificaciones variadas. El XL2586X ofrece un panel de 24.1 pulgadas con resolución Full HD de 1.920 x 1.080 píxeles a 540 Hz, mientras que el XL2546X cuenta con un panel de 24.5 pulgadas y la misma resolución Full HD, pero a 240 Hz. Ambos tienen un contraste de 1.000:1 y una luminosidad máxima de 320 nits.

Para aprovechar al máximo el monitor más avanzado, se requiere el puerto DisplayPort 1.4 y Windows 11 actualizado a la última versión. Versiones anteriores al 1 de noviembre de 2023 limitan el monitor a 500 Hz. Ambos monitores también ofrecen un Modo Consola Full HD a 120 Hz a través del puerto HDMI 2.0.

El XL2586X (540 Hz) cuenta con cuatro entradas de vídeo: DisplayPort 1.4 y 3x HDMI 2.1. Por otro lado, el XL2546X (240 Hz) tiene tres entradas de vídeo: 1x DisplayPort 1.4 y 2x HDMI 2.0. Ambos monitores son ajustables en altura, inclinación y giro.

Además, el ZOWIE XL2586X incluye la tecnología Vivid Color Film, que mejora el rendimiento del color en un 35%, aumentando principalmente la capacidad de distinguir los objetivos enemigos del fondo y mejorando la pérdida de color en los paneles TN convencionales.

En cuanto a los precios, el BenQ ZOWIE XL2546X ya está disponible en la web oficial de ZOWIE a un precio recomendado de 499 dólares. El modelo más avanzado, el ZOWIE XL2586X a 540 Hz, aún no tiene precio, pero se espera que ronde las cuatro cifras.

REDMAGIC 9 Pro: Destacando en el 2023 como el mejor smartphone para gamers

REDMAGIC 9 Pro, apurando el año para ser el mejor móvil gaming de 2023

Hace solo cinco meses analizamos al predecesor del REDMAGIC 9 Pro, el REDMAGIC 8S Pro, y hoy traemos la reseña de este excepcional smartphone gaming. Mantiene su impresionante pantalla AMOLED de 6.8 pulgadas y se actualiza con el procesador Snapdragon 8 Gen 3, ofreciendo un rendimiento sin igual en juegos. Asimismo, su sistema de refrigeración ICE 13 mejora y lleva su ventilador hasta las 22,000 RPM, manteniendo los detalles de iluminación LED RGB y un diseño único en el mercado.

El REDMAGIC 9 Pro viene en tres acabados diferentes: Sleet (negro), Snowfall (gris) y Cyclone (negro transparente). La pantalla es un panel BOE Q9+ de 6.8 pulgadas con una resolución FHD+ y una densidad de pixeles de 400 PPI. Además, cuenta con una tasa de refresco de 120 Hz y una tasa de actualización multitáctil de 960 Hz.

En cuanto al rendimiento, el REDMAGIC 9 Pro cuenta con el último procesador de Qualcomm, Snapdragon 8 Gen 3, acompañado de gráficos Adreno 750 y 12/16 GB de memoria RAM LPDDR5X, dependiendo de la versión. También ofrece capacidades de almacenamiento de 256/512 GB UFS 4.0.

Las cámaras del REDMAGIC 9 Pro incluyen una cámara frontal de 16 megapíxeles bajo la pantalla y dos cámaras traseras de 50 megapíxeles cada una, con sensores Samsung GN5 y JN1. La batería cuenta con una capacidad de 6,500 mAh y carga rápida de 80W.

Entre las características destacadas de este smartphone gaming, se encuentran sus gatillos táctiles de 520 Hz, sus altavoces estéreo 1115K y la funcionalidad añadida del software Game Space. El REDMAGIC 9 Pro se encuentra actualmente a la venta desde 760 euros para la versión de 12/256 GB y alrededor de 900 euros para la versión de 16/512 GB.

Lichee Pocket 4A: una consola portátil potenciada por RISC-V para disfrutar de lo básico

Lichee Pocket 4A: consola portátil muy básica propulsada por un chip con arquitectura RISC-V

En un mercado ansioso por nuevas consolas con hardware x86, nos encontramos con la Lichee Pocket 4A, la primera consola en emplear la arquitectura RISC-V. Esta consola portátil compite con otras basadas en la arquitectura Arm, lo que la obliga a ejecutar juegos bastante sencillos. Por lo tanto, se centrará en juegos móviles y emuladores de consolas antiguas.

A pesar de su menor rendimiento en comparación con, por ejemplo, una ASUS ROG Ally, su precio podría ser de 5 a 6 veces menor, ya que se espera que ronde los 100-200 euros en lugar de los 600 euros de la consola de ASUS.

La Lichee Pocket 4A, fabricada por Sipped, cuenta con una pantalla LCD de 7 pulgadas y una resolución de 1280 x 720 píxeles. Incluye un procesador T-Head TH1520 de Alibaba con tecnología de 12 nm y cuatro núcleos XuanTie C910 basados en RISC-V, gráficos BXM-4-64 de Imagination Technologies y una NPU para acelerar la IA.

El chip está disponible con 8 o 16 GB de memoria RAM LPDDR4X y permite elegir entre 32 o 128 GB de capacidad eMMC 5.1, ampliable mediante tarjeta microSD. Ofrece conectividad USB-C, USB 3.0, Wi-Fi 6, Bluetooth 5.4 y Gigabit Ethernet, así como un conector jack de 3,5 mm para auriculares.

Con dimensiones de 250 x 110 x 30 mm y un peso de 630 gramos, la Lichee Pocket 4A tiene un diseño similar al de la Nintendo Switch, permitiendo retirar los controles para su uso inalámbrico. También cuenta con una cámara trasera de 5 megapíxeles, altavoces estéreo y micrófono integrado.

Está diseñada principalmente para emular juegos, siendo ideal para ejecutar títulos de Game Boy, Game Boy Advance, PlayStation 4, PSP o Nintendo DS. La batería de 5.000 mAh de capacidad debería proporcionar varias horas de juego.

Aunque la información precisa sobre el precio aún no ha sido anunciada, la Lichee Pocket 4A se presenta como una alternativa interesante para aquellos que buscan una consola portátil económica basada en RISC-V, aunque competirá con otros modelos con SoC Arm.

Adiós al sensor de Sony: Conoce las innovaciones en las cámaras de los nuevos Samsung Galaxy S24 Ultra, S25 Ultra y S26 Ultra

Samsung Galaxy S24 Ultra, S25 Ultra y S26 Ultra: novedades de sus cámaras, ¿adiós al sensor de Sony?

Samsung parece estar acelerando en el desarrollo de cámaras para sus nuevos smartphones, buscando superar a sus competidores en cada lanzamiento. Debido a esto, se ha filtrado un roadmap interno que revela algunas novedades en las cámaras de los futuros Samsung Galaxy S25 Ultra, S26 Ultra y el próximo S24 Ultra, que se lanzará el mes que viene.

El S24 Ultra no tendrá un zoom óptico de 10x, sino que contará con un teleobjetivo con 0,7um. En lugar del famoso zoom óptico de 10x, el zoom óptico será de 5x en esta ocasión, lo cual ha sido recibido con cierta controversia. Sin embargo, el nuevo sensor de 0,7um podría compensar este “paso atrás” con mejoras en otros aspectos.

En cuanto a los sensores de imagen, la cámara principal del S24 Ultra será de 200 MP, el gran angular seguirá siendo de Sony, y para el zoom óptico de 3x, seguirán utilizando sensores Sony. Sin embargo, la novedad de este modelo frente a su predecesor radica en la utilización de un sensor Sony IMX875 de 48 MP (vendido como 50 MP) con un tamaño de píxeles de 0,7 μm y zoom óptico de 5x.

Por otro lado, parece que Samsung no podrá utilizar el nuevo sensor de Sony para el Galaxy S25 Ultra, debido a que la demanda de este sensor ha superado las expectativas de la empresa japonesa, lo que ha creado problemas de producción. Esto ha llevado a la posibilidad de que Samsung vuelva a utilizar otros sensores en el S25 y el S25+ mientras que reservan el Sony IMX989 para el S25 Ultra.

Adicionalmente, se ha filtrado que el S26 Ultra usará una lente de gran angular mejorada, un teleobjetivo actualizado con “capacidades variables” y un ultra gran angular de 50 MP. Aunque las especificaciones técnicas no se han revelado, esto muestra que Samsung está decidida a mantenerse a la vanguardia del mercado de cámaras para smartphones.

En resumen, Samsung está trabajando en mejorar las cámaras de sus futuros smartphones, con cambios y novedades en los Galaxy S24 Ultra, S25 Ultra y S26 Ultra. Aunque han surgido algunos obstáculos, como la escasez de sensores Sony, la compañía sigue buscando la manera de mantenerse competitiva frente a rivales como Apple y Google.

Qualcomm Oryon domina en inteligencia artificial, dejando atrás a Intel y Apple con impresionantes 45 TOPS

Qualcomm Oryon no tiene rivales en IA, supera a Intel y Apple logrando 45 TOPS

Qualcomm es un líder en el ámbito de los smartphones y tablets debido a su diseño de chips Snapdragon de alto rendimiento, capaces de competir con lo mejor de Apple y Android. Hace más de un año, se supo del interés de la compañía en desarrollar un SoC para portátiles con rendimiento sin precedentes en la marca. Con el Snapdragon X Elite y sus CPU Qualcomm Oryon, esto es posible, ya que superan a Intel y Apple, especialmente en términos de IA.

La mayoría de los portátiles disponibles utilizan procesadores x86 y GPU integradas con Intel y AMD, además de gráficas dedicadas en modelos más potentes. Los portátiles con procesadores Arm son poco comunes en Windows, pero desde 2020, todos los MacBook de Apple emplean chips Arm de la compañía.

El Qualcomm Snapdragon X Elite con núcleos Oryon ofrece un rendimiento en IA de 45 TOPS. Diseñado tras la adquisición de Nuvia por parte de Qualcomm, el Snapdragon X Elite es un SoC de 12 núcleos Oryon de alto rendimiento, que funciona a 3,8 GHz en modo simultáneo y a 4,3 GHz en modo Boost para dos núcleos.

El sistema cuenta con 64 GB LPDDR5X a 8.533 MHz y una GPU con un rendimiento FP32 de 4,6 TFLOPs. Con un ancho de banda de 136 GB/s, supera al Apple M1 en un 36%. Según Qualcomm, su rendimiento en IA es 100 veces mayor que en 2017 y supera en velocidad al rendimiento de 10 TOPS en el sector de portátiles.

El rendimiento en IA es asombroso, considerando que es un SoC para portátiles de bajo consumo. A diferencia de los chips Qualcomm para móviles, los núcleos Oryon son todos de alto rendimiento, sin combinarlos con núcleos eficientes. En Geekbench 6, supera ligeramente al i9-13980HX en single core, con 3.227 puntos y un consumo de energía 70% menor. También supera al chip M3 de Apple en multi core, obteniendo 12.154 puntos frente a los 15.300 puntos del Qualcomm Oryon.

Sin embargo, el principal desafío de Qualcomm es la compatibilidad del software. Las aplicaciones ISV de Windows recompiladas para funcionar en Arm son escasas y dominadas por Microsoft. Por lo tanto, el mayor problema es ofrecer su rendimiento máximo en programas, aunque esto puede cambiar si su popularidad sigue creciendo y demuestra superar fácilmente a Intel, AMD y Apple.

Descubre los problemas de grietas en PCB en las RTX 4090 de ASUS y GIGABYTE por el exceso de peso de sus disipadores

Las RTX 4090 de ASUS y GIGABYTE tienen grietas en su PCB por culpa del alto peso de los disipadores

Normalmente, las tarjetas gráficas RTX 4090 tienden a presentar problemas diversos, la mayoría de ellos relacionados con su alto consumo y el conector 12VHPWR que puede llegar a quemarse, dañando también la fuente de alimentación. El técnico y reparador más conocido de YouTube, NorthridgeFix, ha dado a conocer otra cuestión problemática con estas GPU: 19 unidades de RTX 4090 llegaron a su taller con pocos días de diferencia y presentaban el mismo error, grietas en su PCB.

Cuando las RTX 4090 salieron al mercado, una de las principales críticas, además del precio y consumo, fue el tamaño de los disipadores de calor, incluso mayores que en la RTX 3090. A pesar de que algunos fabricantes incluyeron un soporte en sus modelos, otros no lo hicieron.

Las RTX 4090 de ASUS y GIGABYTE presentan grietas en su PCB

Desde un principio, se mencionó que este tipo de tarjetas gráficas pesadas necesitan soporte para evitar daños. Los disipadores son tan masivos que ejercen presión sobre el conector PCIe de las placas base, lo que ha llevado a que casi todas las gamas actuales incluyan slots reforzados.

NorthridgeFix ha mostrado pruebas de que este argumento es acertado, ya que las tarjetas presentan grietas en la parte final del slot PCIe, que es la que asegura la tarjeta a la placa base y distribuye el peso del PCB sin dañar los contactos de datos. En algunos casos, las grietas incluso causan un daño irreparable.

El técnico señala que 19 GPU han llegado a su taller con este problema, y todos los modelos son RTX 4090 de ASUS y GIGABYTE, presentando grietas similares en sus PCB. La mayoría de los fallos son en los modelos de ASUS, lo que es curioso, ya que la marca afirma incluir 15 capas en sus PCB. Algunas tarjetas pueden ser reparadas si las grietas no han afectado pistas críticas.

El proceso de reparación implica el uso de cobre en la cara interna del PCB, y fibra de vidrio en la externa para recuperar la rigidez perdida. Esto no garantiza que la tarjeta no se dañe más, pero con un soporte adecuado después de la reparación, debería funcionar sin problemas. Sin embargo, el costo de la reparación no es económico y en algunos casos podría no ser posible si el daño es demasiado severo.

Se sospecha que un mismo usuario pudo haber enviado las 19 tarjetas gráficas dañadas para intentar repararlas a bajo costo y luego venderlas a un precio más elevado, o que las tarjetas formaran parte de equipos pre-ensamblados que sufrieron daños durante el transporte. Independientemente, algunas podrán ser reparadas, pero otras no. Por eso es importante adquirir un soporte vertical para proteger la GPU y evitar este tipo de problemas.

Celebrando 25 años de 3DMark: 160 GPUs analizadas tras 11 años de lanzamientos, ¿cómo resistieron al paso del tiempo?

Tras 11 años de lanzamientos 160 GPU se ponen a prueba por el 25 aniversario de 3DMark, ¿cómo las ha tratado el tiempo?

Los benchmarks son pruebas que nos permiten evaluar y comparar el rendimiento de diferentes componentes en PC y dispositivos móviles. Estas pruebas han existido durante décadas y algunas se enfocan en la CPU, otras en la GPU, y otras en el rendimiento general, incluyendo RAM y SSD. En cuanto a las pruebas enfocadas en tarjetas gráficas, 3DMark es uno de los benchmarks más conocidos. Para celebrar su 25º aniversario, han decidido probar todos los benchmarks de 3DMark en 160 tarjetas gráficas, creando una impresionante lista de GPUs y sus rendimientos.

QUASARZONE ha llevado a cabo una de las pruebas más exhaustivas para comparar tarjetas gráficas utilizando un PC con un AMD Ryzen 7 7800X3D, una placa base ASUS ROG STRIX X670E GAMING WIFI, 32 GB de memoria RAM G.SKILL DDR5 a 6000 MHz, SSD Platinum P41 de 2 TB, fuente PRIME TITANIUM TX-1600 y Windows 11. Dicho esto, veamos los resultados de las pruebas.

En los primeros benchmarks de 3DMark, la mayoría de las GPU muestran un rendimiento similar. A partir de 3DMark Vantage (2008), se empiezan a apreciar diferencias significativas entre las distintas gráficas, con la RX 7900 XTX de AMD superando a todas las demás, y la RTX 4080 de NVIDIA quedando en segundo lugar.

En la mayoría de los benchmarks modernos, NVIDIA sale victorioso. En 3DMark 11 (2009), la RTX 4090 de NVIDIA lidera, seguida de la RX 7900 XTX de AMD. En 3DMark Fire Strike (2013), NVIDIA y AMD compiten con resultados bastante similares.

Además, se han probado las versiones de Fire Strike Extreme, Fire Strike Ultra, 3DMark Time Spy, 3DMark Time Spy Extreme, Port Royale y Speed Way, donde la RTX 4090 de NVIDIA se muestra como la líder en términos de rendimiento. Finalmente, en 3DMark Solar Bay, las tarjetas gráficas de NVIDIA también dominan, a pesar de que es un benchmark multiplataforma.

Si deseas conocer todos los datos, puedes visitar el sitio web coreano de QUASARZONE, donde también encontrarás una comparativa de rendimiento de 3DMark entre las GPU de diferentes arquitecturas.

La entrada original “Tras 11 años de lanzamientos 160 GPU se ponen a prueba por el 25 aniversario de 3DMark, ¿cómo las ha tratado el tiempo?” se encuentra en El Chapuzas Informático.

Demandan a Apple, Visa y Mastercard por incrementar comisiones al utilizar Apple Pay: ¿Abuso de monopolio?

Apple, Visa y Mastercard reciben una demanda antimonopolio por aumentar las comisiones al usar Apple Pay

Al realizar compras en línea, es común pagar con tarjeta de crédito o a través de plataformas como PayPal. Para compras en persona, el uso de pagos móviles, como Google Pay o Apple Pay, ha ganado popularidad. Sin embargo, Apple, junto con Visa y Mastercard, enfrenta ahora una demanda antimonopolio por presuntamente haber trabajado juntos para establecer un dominio en el mercado y aumentar las comisiones al utilizar Apple Pay como única opción.

La tecnología NFC en los teléfonos móviles permite realizar pagos de forma rápida y sencilla, siendo una alternativa conveniente a las tarjetas de crédito. Google Pay, lanzada hace más de una década, ha permitido pagos en dispositivos Android, mientras que Apple Pay se introdujo años después para competir con Google y ofrecer un servicio similar en dispositivos Apple, destacando mayor protección y seguridad en los pagos.

La demanda contra Apple, Visa y Mastercard fue iniciada por la empresa de bebidas Mirage Wine & Spirits, con sede en Illinois, que alega que estas compañías llegaron a un acuerdo para eliminar la competencia. Supuestamente, trabajaron juntos para evitar que otras empresas pudieran utilizar la función “tocar para pagar” en los iPhone mediante aplicaciones de terceros, dejando a Apple Pay como única opción.

La demanda también sostiene que Apple aceptó sobornos sustanciales de Visa y Mastercard a cambio de no competir contra ellas, representando un porcentaje de las tarifas de transacción de ambas compañías por pagos con tarjetas de crédito y débito a través de Apple Pay.

Mientras tanto, en Europa, se informó recientemente que Apple podría estar considerando abrir su tecnología NFC para evitar demandas antimonopolio. La Comisión Europea está investigando a la compañía, ya que más de 2.500 bancos en la UE utilizan Apple Pay y se sospecha que Apple limita el acceso a clientes de terceros.

Sony PS5 1TB SLIM Disc Console
Call of Duty MW3 Bundle

Model: CFI-2015
UPC: 711719566427

Brand New – USA Spec

LIMITED QTY’S – MOQ APPLIES

Interested? Ask for price and MOQ!

 

🇪🇸 Hablamos Español

🇧🇷 Falamos Português

Regards,

A2 Trading Corp.
6020 NW 99th Ave, Unit #306
Doral, FL 33178
Email: sales@a2tradingcorp.com
Mobile/Whatsapp: +1 (786) 252-9848
Website: www.a2tradingcorp.com

Roku Premiere 4K & HDR
Streaming Device

Model: 3920RW-SWUPC: 829610007175

 

Brand New, USA Specs

LIMITED QTY’S – MOQ APPLIES


Interested? Ask for price and MOQ!

 

🇪🇸 Hablamos Español

🇧🇷 Falamos Português

Regards,

A2 Trading Corp.
6020 NW 99th Ave, Unit #306
Doral, FL 33178
Email: sales@a2tradingcorp.com
Mobile/Whatsapp: +1 (786) 252-9848
Website: www.a2tradingcorp.com

Onn. Google TV 4K Streaming Box (2023 Edition)

UPC: 681131422284Brand New, USA Specs

LIMITED QTY – MOQ APPLIES

Interested? Ask for price and MOQ!

🇪🇸 Hablamos Español
🇧🇷 Falamos Português

Regards,

A2 Trading Corp.
6020 NW 99th Ave, Unit #306
Doral, FL 33178
Email: sales@a2tradingcorp.com
Mobile/Whatsapp: +1 (786) 252-9848
Website: www.a2tradingcorp.com

CLICK HERE FOR PRODUCT PICTURES

Backbone One PlayStation Edition for iPhone – White

Model: BB-02-W-S
UPC: 860003568200

Play your PlayStation games from virtually anywhere with ease.

Simply plug an iPhone into the Backbone One and instantly start playing your PS4 or PS5 games with the power of the PS Remote Play app.

Learn more here: playbackbone.com/playstation/

Brand New, USA Specs
EXPORT ONLY / NO ONLINE SALES

LIMITED QTY – MOQ APPLIES

Interested? Ask for price and MOQ!

🇪🇸 Hablamos Español
🇧🇷 Falamos Português

Regards,

A2 Trading Corp.
6020 NW 99th Ave, Unit #306
Doral, FL 33178
Email: sales@a2tradingcorp.com
Mobile/Whatsapp: +1 (786) 252-9848
Website: www.a2tradingcorp.com

CLICK HERE FOR PRODUCT PICTURES
Asgard's Wrath 2: Descubre el impresionante juego del año para gafas VR

Asgard’s Wrath 2: así luce el que ya es el mejor juego para gafas VR del año

Si aún no conoces Asgard’s Wrath 2, no te preocupes, es bastante comprensible. Estamos hablando de un juego específico para las gafas de realidad virtual (VR) de Meta, lanzado el pasado viernes. Actualmente, está en boca de todos ya que ha sido calificado por Metacritic como el mejor juego de VR de este año. Además, en base a las valoraciones obtenidas, también es uno de los juegos mejor valorados en lo que va de año. En la propia tienda de Meta, de más de 1.300 reseñas, el 77% de ellas son de 5 estrellas.

En cuanto a Baldur’s Gate 3, es un juego conocido por todos y ha ganado varios premios GOTY este año. El juego de Larian Studios ha sido muy bien recibido por la crítica y, según Metacritic, es el mejor juego del año con una puntuación de 96 sobre 100. A pesar de ser un juego de VR, Asgard’s Wrath 2 puede presumir de ser el quinto juego mejor valorado del año en Metacritic, con 94 puntos, empatado con Metroid Prime Remastered de Nintendo Witch. Si te interesa, el Top 3 incluye The Legend of Zelda: Tears of the Kingdom y Against the Storm.

Asegúrate de recordar que Asgard’s Wrath 2 es un juego exclusivo para gafas VR, así que no esperes la calidad visual de un juego de PC o consola de sobremesa. De hecho, este juego se ejecuta con el hardware integrado en las gafas independientes. Es decir, estás viendo un juego visualmente rico ejecutado en un hardware incluso inferior al de un dispositivo móvil.

Asgard’s Wrath 2 es un juego exclusivo de Meta y solo se puede jugar con las gafas Meta Quest 2, Meta Quest 3 o las más avanzadas, las Meta Quest Pro. Para dar contexto, las Meta Quest 2 utilizan un SoC Snapdragon XR2 comparable a un Snapdragon 865. Las Meta Quest 3 emplean un Snapdragon XR2 Gen2 comparable a un Snapdragon 8 Gen 2. Mientras las Meta Quest Pro cuentan con un Snapdragon XR2+. No se sabe exactamente cuánta mejora de rendimiento aporta el SoC de las Quest 3.

Con ese contexto, no se puede decir que la calidad gráfica sea mala. Y por supuesto, aunque estés viendo un video, cuando te pones las gafas te sumerges en un mundo 3D lleno de detalles y realismo. De hecho, el juego incluye un momento de jump scare al principio, lo que dificulta no quedarse impresionado desde el inicio del juego.

Asgard’s Wrath 2 se incluyó como juego gratuito junto con la compra de las gafas VR Meta Quest 3 y fue lanzado oficialmente el viernes pasado. Al adquirirlo, está claro que es un juego Triple A para VR, ya que su precio es de 59,99 euros.

Este juego fue desarrollado por Sanzaru Games, un estudio adquirido por Oculus Studios. En febrero de 2020, Meta, conocida en ese momento como Facebook, compró este estudio. A pesar de haber desarrollado solo cuatro juegos desde su creación en 2016, los títulos siempre tenían críticas favorables. Sin embargo, fue Asgard’s Wrath 1 el que llevó a Facebook a realizar la adquisición para fortalecer Oculus y Oculus Studios.

En Asgard’s Wrath 2, te despiertas como un guardián cósmico y el destino de la realidad está en tus manos. Viaja a través de vastos reinos habitados por dioses y encuentra a Loki, que intenta desenredar los hilos del universo. Lucha junto a los legendarios dioses egipcios contra guerreros letales y criaturas míticas, posee a héroes mortales, transforma animales en seguidores, encuentra armas y disfruta de estilos de juego únicos con un sistema de combate basado en las leyes de la física. Todo en un mundo repleto de enigmas sorprendentes.

Sumérgete en la secuela de uno de los ARPG de RV más aclamados. Asgard’s Wrath 2 es la aventura de RV que estabas esperando.

Microsoft podría lanzar consolas de nueva generación en 2026 con NPU para impulsar la inteligencia artificial

Microsoft lanzaría su nueva generación de consolas en el año 2026: NPU incluida para acelerar la IA

Las consolas Xbox Series X y Series S no han funcionado del todo bien, por lo que Microsoft planea un cambio drástico: lanzar una nueva generación de consolas antes de lo previsto. Se supo que la empresa preparaba sus nuevas consolas Xbox para 2028, pero ahora parece que podrían adelantarse debido a los últimos rumores.

Según los documentos, una versión mejorada de las consolas actuales estaría disponible en 2024, el mismo año en que se espera el lanzamiento de la PlayStation 5 Pro y la nueva Nintendo Switch. Sin embargo, Microsoft podría haber cancelado este plan y lanzar una nueva generación dos años después, reduciendo así la vida útil de su 9ª generación de consolas Xbox a seis años.

Se espera que las nuevas consolas Xbox lleguen en 2026, según el reportero Jeff Grubb de Giant Bomb, quien cita fuentes relacionadas con filtraciones de PlayStation. La información sugiere que Microsoft ha cambiado sus planes y tiene como objetivo lanzar una nueva generación de consolas para 2026.

Aunque aún es temprano para discutir el rendimiento o el hardware específico, es probable que esta consola utilice hardware de 2025, lo que podría implicar un salto de la arquitectura AMD Zen 2 a Zen 6, o posiblemente Zen 5. En cuanto a los gráficos, se esperan arquitecturas basadas en RDNA 5 o 6, lo que representa un avance significativo en rendimiento, tecnologías relacionadas con Ray Tracing, escalado de resolución y generación de fotogramas.

Los informes también sugieren que la futura consola de Microsoft incluirá una Unidad de Procesamiento Neural (NPU), diseñada para acelerar la inteligencia artificial (IA). Además, la compañía ha formado una alianza con la startup de IA Inworld, lo que permitirá desarrollar personajes no jugables (NPC) más inteligentes y realistas respaldados por IA.

Aunque Microsoft ha considerado una CPU basada en la arquitectura ARM, la empresa probablemente seguirá ofreciendo dos consolas en su línea de productos. Sin embargo, si la firma realmente está preparando una o más consolas para 2026, se espera que se conozcan más detalles en breve.

Descubre MetalFX: la revolucionaria tecnología de reescalado de Apple basada en AMD FSR

La tecnología de reescalado MetalFX de Apple se ha diseñado a partir de AMD FSR

Con cada nueva generación de consolas, se introducen videojuegos con gráficos superiores y mayores requisitos para ejecutarlos fluidamente. Actualizar la tarjeta gráfica o el procesador de un ordenador para jugar a estos títulos a 60 FPS o más implica un gasto considerable, dada la situación actual del mercado de hardware. Afortunadamente, existen tecnologías de reescalado como AMD FSR que permiten a las tarjetas gráficas más antiguas obtener más FPS. Se ha descubierto que la tecnología MetalFX Upscaling de Apple se diseñó utilizando AMD FSR como base.

Las consolas PS5 y Xbox Series X/S se lanzaron hace más de 3 años, y desde entonces, hemos visto juegos con problemas de optimización o requisitos muy altos. Las GPU con 8 GB de VRAM o menos han luchado para ejecutar algunos títulos a máxima calidad, incluso a resoluciones Full HD. Aunque se puede disminuir los gráficos, hacerlo reduce la resolución nativa y resulta en una imagen borrosa y con más aliasing (bordes dentados). Afortunadamente, existen tecnologías como NVIDIA DLSS, AMD FSR, Intel XeSS y MetalFX Upscaling de Apple que permiten obtener más FPS sin sacrificar la calidad.

Apple desarrolló MetalFX Upscaling inspirándose en la tecnología AMD FSR. Utilizando estos métodos en sus modos de Calidad o Equilibrio, se puede mantener una calidad similar a la nativa con una mejora significativa en los FPS en todos los juegos. Los modos de Rendimiento o Ultra Rendimiento generalmente no se recomiendan, excepto en ciertos casos donde se requiera la máxima cantidad de FPS o se juegue en resoluciones muy altas. En esta ocasión, examinaremos MetalFX Upscaling, que se anunció en el verano de 2022 como la solución de Apple para jugar a juegos Triple A en sus dispositivos.

Esta tecnología permite un mejor rendimiento, y combinada con chips de última generación y GPU más potentes, es posible jugar de manera bastante eficiente a muchos títulos. Aunque Apple consideró inicialmente a MetalFX Upscaling como una tecnología propia, resulta que está basada en FSR, la alternativa de código abierto de AMD.

Podemos esperar una generación de fotogramas similar a la de FSR 3, ya que AMD publicó recientemente el código fuente de FSR 3 y versiones anteriores, haciéndolos efectivamente de código abierto. Es lógico que Apple aproveche esta oportunidad en lugar de comenzar desde cero. El hecho de que se basen en FSR no significa que sea una copia directa, sino que lo modificarán para diferenciarse, incluso mejorando a AMD.

Gracias a MetalFX Upscaling, se puede jugar a juegos como Resident Evil Village en Mac e incluso en el iPhone 15, algo realmente sorprendente. Apple habrá utilizado una versión antigua de FSR, ya que MetalFX Upscaling comenzó a desarrollarse hace algún tiempo. Dado que ahora sabemos que AMD ha lanzado FSR 3 de código abierto, podríamos ver una versión con generación de fotogramas de MetalFX Upscaling.

Descubre cómo desmontar un iMac M3 y lo sencillo que es reemplazar la pantalla y la batería interna

Desmontan un iMac M3 y se revela como la pantalla y batería interna son fácilmente sustituibles

Apple es conocida mundialmente por la calidad de sus productos y dispositivos, incluyendo portátiles, smartphones, smartwatches y ordenadores de sobremesa, como la línea Mac Pro para profesionales y los iMac como PC AIO (All In One). El reciente lanzamiento del iMac M3 ha demostrado que algunas piezas son más fáciles de reemplazar que en modelos anteriores.

Los dispositivos de Apple están diseñados para usuarios que prefieren no lidiar con especificaciones y detalles técnicos, ya que garantizan un buen rendimiento en la mayoría de las tareas. La durabilidad y fluidez de los sistemas operativos de iPhone y MacBook Pro, incluso con el paso del tiempo, hacen que muchos prefieran Apple sobre otras marcas.

Desmontar y cambiar piezas del iMac M3 resulta más sencillo que en otros modelos

Aunque los productos de Apple son fáciles de usar y ofrecen buen rendimiento, reemplazar piezas o repararlos suele ser complicado. iFixit, conocida por desmontar prácticamente todos los productos de Apple, ha publicado un vídeo de la desmontaje del iMac M3. Eliminar la pantalla resulta sencillo, ya que solo hay adhesivo en los bordes. Al quitar los cables de alimentación, se puede aislar el panel para reemplazarlo si es necesario.

El iMac M3 cuenta con soporte para VESA, pero requiere quitar tornillos internos. La placa lógica tiene cables pequeños que deben desconectarse con cuidado, y al retirar los brackets y separar el disipador, se pueden ver componentes principales como el SoC M3, RAM y SSD soldados.

Sustituir la batería del iMac es muy fácil

Este iMac M3 es más fácil de desmontar que modelos anteriores, y Apple ha facilitado el cambio de la batería interna. Solo hay que quitar dos tornillos para retirar la batería, lo cual resulta en un proceso rápido y sencillo. Además, solo hay una batería en lugar de dos. iFixit también menciona que el adhesivo se puede quitar y reemplazar fácilmente.

El iMac M3, presentado hace aproximadamente un mes y medio, cuenta con una pantalla de 24 pulgadas con resolución 4,5K, 8 GB de RAM como configuración base (ampliable a 24 GB) y 256 GB de almacenamiento ampliables a 1 TB. Su precio base es de 1.619 euros, y hay opciones más potentes disponibles a un costo más elevado.

Oppo Find X7 revela diseño impactante y especificaciones sorprendentes: ¡Dimensity 9300 y 16 GB de RAM!

El Oppo Find X7 ve filtrado tanto su diseño como sus especificaciones: Dimensity 9300 junto a 16GB de RAM

Ya se puede apreciar con detalle el diseño del Oppo Find X7, el modelo más básico de la compañía. A pesar de esto, presenta una cámara de buena calidad, incluyendo el nuevo sensor de moda de Sony. Además, también hay imágenes filtradas del Find X7 Pro, que cuenta con una configuración fotográfica de cuatro cámaras y un módulo de cámara que sobresale del chasis.

En cuanto a las especificaciones del Oppo Find X7, se espera que cuente con un panel AMOLED, probablemente con resolución Full HD+ y una tasa de refresco de 120 Hz. A nivel de hardware, incorporará el SoC tope de gama de MediaTek fabricado por TSMC a 4 nm, el Dimensity 9300. Este SoC estará acompañado de hasta 16 GB de memoria RAM LPDDR5X y un almacenamiento UFS 4.0 de hasta 1 TB.

La batería tendrá una capacidad de 5.000 mAh y se cargará rápidamente gracias a una tecnología de carga rápida por cable de 100W. La cámara principal será un Sony LYT-808 de 50 megapíxeles, acompañado de un sensor ultra gran angular de 50 MP y un teleobjetivo en forma de periscopio con un sensor OmniVision OV64B. La variante Pro del Find X7 contará con una cámara más avanzada.

En cuanto al Oppo Find X7 Pro, podría tener especificaciones similares al Find X7 original, pero con diferencias en el SoC y la cámara. Por otro lado, se espera que el Oppo Find X7 Ultra cuente con mejoras como una pantalla con mayor resolución, más memoria RAM y mejoras en el apartado fotográfico. Aún no se conoce si habrá cambios en la velocidad de carga.

El Oppo Find X7 muestra tanto su diseño como sus especificaciones filtradas, incluyendo el Dimensity 9300 junto con 16GB de RAM.

¡Activa la conectividad Bluetooth en tu mando Stadia antes del 31 de diciembre de 2024!

Tendrás hasta el 31 de diciembre de 2024 para activar la conectividad Bluetooth de tu mando Stadia

Google ha optado por extender la fecha límite en la que los propietarios de un control de Google Stadia pueden revivirlo habilitando su conectividad Bluetooth. Cabe recordar que después del fallecimiento de la plataforma de streaming Google Stadia, el control no funciona a menos que esté conectado por cable; de lo contrario, un control inalámbrico estaría destinado únicamente al uso con cable. Este control se conecta a servidores de Stadia, actualmente desactivados. Sin ellos, estos controles no funcionan.

Después del cierre, Google lanzó una actualización de firmware que permite a estos controles acceder a la conectividad Bluetooth, lo que les permite conectarse con cualquier dispositivo Bluetooth para su uso, como una PC, consola, dispositivo móvil o incluso una Smart TV. Por alguna razón desconocida, Google eligió el 31 de diciembre como fecha límite para la actualización, pero ahora se ha extendido hasta finales de 2024.

Podrás habilitar el Bluetooth de tu control Google Stadia hasta el 31 de diciembre de 2024

Alguien en Google decidió que el plazo de actualización para su control Stadia era demasiado corto, por lo que se ha extendido hasta el último día de 2024. La opción de habilitar la función Bluetooth fue ofrecida en enero como un gesto de despedida para los propietarios. Aunque el control funciona con cable, el Bluetooth es claramente una función útil. Incluso si no utilizamos el control, al menos podemos venderlo o regalarlo.

Google pudo haber extendido el soporte debido a la gran cantidad de controles sin actualizar. Quienes no hayan actualizado su control luego de casi un año del lanzamiento, es poco probable que lo hagan durante el próximo año válido, pero al menos Google ofrece la opción. Además, este control no es muy atractivo desde una perspectiva de ventas, ya que se puede conseguir por 15 euros.

Muchos usuarios de Google Stadia podrían haber recibido el control como regalo. Por ejemplo, en un momento hubo una promoción donde Google regalaba el control junto con Chromecast si estabas suscrito a YouTube Premium. Desde entonces, ese control no se utilizó más que para la actualización.

El proceso de actualización de la conectividad Bluetooth al control de Google Stadia es rápido y fácil de llevar a cabo. Solo necesitas tener el control conectado a la PC mediante un cable USB y entrar a la página de actualización desde el navegador Google Chrome. Una vez que se cumplan los requisitos, la página web guiará a través de los pasos para habilitar la conectividad Bluetooth en el control. Después de esto, podrás emparejarlo de manera inalámbrica con cualquier dispositivo compatible.

La noticia de la extensión del plazo para activar el Bluetooth en tu control Stadia fue reportada por primera vez en El Chapuzas Informático.

Descubre los Chiplets: ¿Su funcionamiento y por qué revolucionarán el futuro del hardware?

¿Qué son los chiplets? ¿Cómo funcionan y por qué son el futuro del hardware?

Los chiplets no son una innovación reciente, pues han estado presentes en el panorama tecnológico desde el lanzamiento de las CPU Ryzen 3000 de AMD para equipos de escritorio. Con el tiempo, la elaboración de un chip en una sola pieza se vuelve cada vez menos común, siendo reemplazada por el concepto de chiplets o tile, como lo denomina Intel en su estrategia de marketing. Entonces, ¿cuál es el motivo de esta tendencia y qué limitaciones y beneficios implica en el diseño y fabricación de nuevos semiconductores?

El concepto de chiplet se refiere a diseños compuestos por varios chips o tiles individuales, lo que implica la división o desagregación de un único chip. Esta tendencia no es simplemente una moda, sino que está siendo adoptada cada vez más por diferentes fabricantes en sus distintos diseños.

Si bien los sistemas multichip han existido desde los inicios de la informática, los chiplets no son los clásicos Módulos de Varios Chips (MCM, por sus siglas en inglés). En cambio, los chiplets implican la disgregación o separación de un chip en diferentes partes, cada una con una función específica dentro del conjunto. Este proceso es completamente opuesto a la integración de componentes como resultado de la reducción de tamaño de los diferentes transistores debido a la litografía.

Cada vez más diseños basados en chiplets llegan al mercado, con algunos incluso utilizando diferentes procesos de fabricación dentro de un solo chip. La principal razón para esto es superar el tamaño límite impuesto por el tamaño de las fotomáscaras, que no pueden exceder los 26 mm de ancho por 33 mm de alto (858 mm²). Este tamaño se reduce a la mitad (429 mm²) con el uso de litografías basadas en High-NA EUV utilizando lentes amorfas.

La evolución hacia chiplets de varias arquitecturas obedece, en principio, a dos obstáculos. El primero es poder superar el tamaño de los chips, y el segundo es estar preparado para un futuro en el que cualquier diseño que supere los 429 mm² de tamaño requiera varios chips debido a limitaciones físicas obvias.

Existen factores económicos adicionales que justifican la existencia de los chiplets, como el hecho de que los costos de desarrollo y despliegue de las nuevas litografías son tan altos que no es suficiente con el tiempo de vida de unas pocas generaciones de productos. Por ello, se utilizan chiplets de diferentes litografías y, en algunos casos, incluso de distintos fabricantes, en el diseño y producción de cada chip.

Uno de los principales desafíos en el diseño de chiplets es mantener la comunicación eficiente y de alta velocidad entre las distintas partes, especialmente en el caso de las GPU. Por ello, muchos diseños utilizan interposer, que es un chip que se coloca en la base y permite la intercomunicación entre las diferentes partes. El interposer reduce el consumo energético al permitir un mayor número de interconexiones que, a su vez, facilitan velocidades de reloj más bajas y voltajes menores.

Sin embargo, la incorporación del interposer aumenta la complejidad y el costo de fabricación y también incrementa las posibilidades de fallo durante el proceso de manufactura. A pesar de esto, la adopción de litografías basadas en tecnología High-NA EUV forzará el uso de interposer en varios diseños, especialmente en aquellos con GPU, como se ha visto en los Intel Meteor Lake.

El futuro de los chiplets sugiere un panorama en el que diferentes marcas coexisten en un solo diseño. Gracias al estándar de intercomunicación conocido como UCIe (Universal Chiplet Interconnect Express), será posible combinar piezas de diferentes fabricantes y diseños de distintas marcas según las necesidades de cada uno. Esto podría resultar en una mayor especialización y externalización de componentes específicos, como aceleradores para tareas concretas o unidades de procesamiento de imagen.

En conclusión, los chiplets y sus características ofrecen ventajas en términos de tamaño y eficiencia energética, así como una mayor modularidad en el diseño de semiconductores. A pesar de ciertos desafíos y limitaciones, esta tendencia parece ser el futuro del hardware.

Próximamente, la tecnología Intel XeSS revolucionará con su generador de frames: ExtraSS

Intel XeSS traerá en breve su tecnología de generador de frames: ExtraSS

Intel continuará perfeccionando su tecnología de escalado Intel XeSS, y la siguiente mejora será un generador de fotogramas denominado ExtraSS. Esta nueva tecnología fue presentada por Intel durante el evento SIGGRAPH Asia 2023 y se considera equivalente a tecnologías como Frame Generation en NVIDIA DLSS y AMD FSR.

Un aspecto destacado de Intel XeSS es su código abierto, lo que permite usar la tecnología de escalado en cualquier GPU. Sin embargo, será en las Intel Arc donde se obtenga el mejor rendimiento. Al igual que NVIDIA, estas GPUs incluyen hardware especializado para acelerar la inteligencia artificial y mejorar el acabado final. Esto también podría significar que la tecnología ExtraSS sea aprovechable por otros jugadores del mercado, facilitando su adopción por parte de los desarrolladores de videojuegos.

Aunque Intel XeSS es una de las tecnologías de escalado más recientes en el mercado, se acerca a ofrecer la calidad que implica el uso de NVIDIA DLSS. La carencia principal en comparación con su competencia era la ausencia de un generador de fotogramas que inserta un frame creado por IA entre dos frames de la GPU, aumentando significativamente el rendimiento de los juegos.

Con la tecnología conocida por ahora como Intel XeSS ExtraSS, Intel parece estar siguiendo a sus rivales más experimentados en la industria de las GPU dedicadas. ExtraSS es un innovador framework que combina supermuestreo espacial y extrapolación de fotogramas para mejorar el rendimiento del renderizado en tiempo real. Este enfoque logra un equilibrio entre rendimiento y calidad, generando resultados de alta resolución y estables en el tiempo.

Mediante la utilización de módulos de warping y ExtraSSNet para el refinamiento, se mejora la información espacio-temporal, aumentando la nitidez del renderizado, manejando con precisión las sombras en movimiento y generando resultados estables en el tiempo. Los costes computacionales son significativamente menores en comparación con los métodos de renderizado tradicionales, lo que permite mayores tasas de fotogramas y resultados de alta resolución sin efecto alias.

La evaluación realizada con el motor Unreal Engine evidencia las ventajas de ExtraSS en comparación con los métodos convencionales de supermuestreo espacial o temporal individual, ya que mejora la velocidad de renderizado y la calidad visual.

La técnica de generación de fotogramas Intel XeSS ExtraSS utiliza la “extrapolación de fotogramas”, mientras que AMD y NVIDIA emplean la “interpolación de fotogramas”. Aunque ambos métodos son similares, la principal diferencia radica en cómo se crea el fotograma generado. Mientras la interpolación utiliza múltiples muestras para producir una trama aproximada, la extrapolación emplea información más allá de los límites de la muestra para generarla. Aunque la extrapolación puede producir resultados menos fiables y generar más artifacts, con ajustes y optimizaciones, Intel XeSS ExtraSS podría ofrecer alta calidad visual y alta tasa de fotogramas.

Además, la interpolación utilizada por la competencia añade mayores latencias en la generación de fotogramas, lo que ha llevado a NVIDIA y AMD a desarrollar tecnologías como Anti-Lag y Reflex para reducir la latencia.

Las pruebas visuales comparativas se llevaron a cabo con una CPU AMD Ryzen 9 5950X y una tarjeta gráfica NVIDIA GeForce RTX 3090.

Descubre cómo actualizar a Windows 10/11 legalmente por solo 9€ con CDKeyoffer

Aprovecha y pásate a un Windows 10/11 legal desde 9€ con CDKeyoffer

Regresamos con las licencias más solicitadas de CDKeyoffer, incluidas las de Windows 10 LTSC. Además, puedes obtener Windows 10 Home por tan solo 9 euros, la versión que el 99,99% de los usuarios deberían utilizar pero optan por Windows 10 Pro debido a su popularidad. Cabe resaltar que las licencias de Windows 10 también sirven para activar su equivalente en Windows 11.

Debido a la inflación actual y la fluctuación en la relación euro/dólar, los precios pueden variar ligeramente.

Estas son las ofertas disponibles de Windows 10/11 y Office en CDKeyoffer:

Código de descuento: ELC48

Windows 10 Pro por 10,39 euros

Windows 10 Home por 9,33 euros

Windows 10 LTSC por 9,47 euros

2x licencias de Windows 10 Pro por 18,97 euros (9,48 euros cada una)

Windows 11 Pro por 14,22 euros

Windows 11 Home por 13,36 euros

Microsoft Office 2021 por 34,41 euros

Microsoft Office 2019 por 29,17 euros

Microsoft Office 2016 por 18,04 euros

Windows 10 Pro + Office 2016 por 25,21 euros

Windows 10 Pro + Office 2019 por 37,25 euros

Microsoft Visual Studio 2022 Enterprise CD Key Global por 62,39 euros

Microsoft SQL Server 2019 Standard 16 Core CD Key Global por 103,99 euros

Office 365 Account Global 1 Dispositivo por 12,8 euros

En cuanto a rendimiento, Windows 10 LTSC 2019 ofrece una mejora mínima, pero su verdadero beneficio radica en evitar actualizaciones molestas en momentos inoportunos, como mientras se juega o se trabaja. Cabe mencionar que no incluye aplicaciones como Xbox, Cortana o Microsoft Store, pero se pueden habilitar utilizando PowerShell si es necesario.

Windows 10 Home es el sistema operativo básico para la mayoría de los usuarios, ya que la versión Pro contiene características adicionales que la mayoría no aprovecha ni encuentra útiles.

Es importante recordar que estas son licencias OEM, totalmente legales y respaldadas por Microsoft, que incluso permiten su uso en múltiples ocasiones en el mismo dispositivo si se actualiza el sistema en el futuro. Gracias a los bajos precios y el buen trabajo de CDKeyoffer, podemos garantizar que no habrá problemas para activar las claves de Windows u Office.

Si experimentas algún problema, no dudes en enviarnos un correo electrónico (a través de la sección Contacto) para solucionarlo. También puedes ponerte en contacto con el soporte por chat en la tienda. Al comprar una licencia, estarás contribuyendo al mantenimiento de este sitio web.

La información original se encuentra en la entrada “Aprovecha y pásate a un Windows 10/11 legal desde 9€ con CDKeyoffer” en El Chapuzas Informático.

Descubre cómo adquirir un chip de PlayStation 5 reconvertido en una potente GPU para minería: AMD BC-250

AMD BC-250: puedes comprar un chip de PlayStation 5 reutilizado para crear una GPU de minería

Unas “GPU” AMD BC-250, que fueron empleadas para minar criptomonedas en el pasado, han sido puestas a la venta en eBay. Lo más sorprendente es que utilizan la APU fabricada por AMD para la PlayStation 5 de Sony. Esto implica que los chips de la PS5 se ensamblaron en PCBs configurados para crear una GPU especializada en minado de criptomonedas.

Actualmente, estas AMD BC-250 no tienen mucho uso, por lo que están siendo vendidas al público. Se trata de un sistema de ASRock con doce gráficas AMD BC-250, es decir, un rig conformado por doce chips de PlayStation 5.

Según el vendedor en eBay, cada GPU de minería AMD BC-250, con el chip de PlayStation 5 y sus 16 GB de memoria GDDR6, se vende a un precio de 500 dólares. A pesar de la oferta, no tiene mucho sentido comprar una de estas GPU en la actualidad, especialmente considerando el valor actual de las criptomonedas.

Un sistema completo puede ofrecer un Hash Rate de hasta 610 MH/s minando criptomonedas ETHASH y ETC. Esto se traduce en ganancias de solo 0,2 dólares al día por GPU. El minado de criptomonedas con GPU ya es algo del pasado, y como se puede observar, no es rentable. La inversión nunca se recuperaría, especialmente si se considera el costo energético de tener este equipo encendido las 24 horas del día.

A un precio unitario de 500 dólares por GPU, se trata de un valor mayor al de la propia PlayStation 5. El vendedor indica que las GPU se han utilizado para minar durante un año en un entorno térmicamente controlado. A pesar de la sinceridad, es poco probable que alguien compre una GPU de este tipo y a ese precio.

Existen diversas teorías sobre cómo llegaron estos chips de PlayStation a una GPU de minería. Puede ser desde la compra de consolas PS5 para desmontarlas y reutilizar el chip en estas AMD BC-250, hasta “conspiraciones” en las que AMD o Sony decidieran destinar estos chips a otros propósitos. No es una idea descabellada, recordando que en el pasado AMD y NVIDIA desviaron la fabricación de chips para GPU gaming a gráficas de minería. Incluso se redujo la fabricación de otros productos, como en el caso de las CPU de AMD, para producir más GPU, ya que todas estaban siendo vendidas a mineros de criptomonedas a pesar de los precios inflados.

De manera similar, hoy en día el mercado de la IA presenta una situación parecida. La GeForce RTX 4090 ha desaparecido prácticamente de todas las tiendas debido a que es una opción asequible para entrar en el negocio de la inteligencia artificial.

Apple iPad 10.2″ (9th Gen.) WiFi 64GB

Available in both colors:
Space Gray – MK2K3LL/A
Silver – MK2L3LL/A

Brand New, USA Specs

LIMITED QTY – MOQ APPLIES

Interested? Ask for price and MOQ!

🇪🇸 Hablamos Español
🇧🇷 Falamos Português

Regards,

A2 Trading Corp.
6020 NW 99th Ave, Unit #306
Doral, FL 33178
Email: sales@a2tradingcorp.com
Mobile/Whatsapp: +1 (786) 252-9848
Website: www.a2tradingcorp.com

CLICK HERE FOR PRODUCT PICTURES