febrero 7, 2023

Comparación de texto en vivo en iOS 15 vs Google Lens en Android 12

ios 15 texto en vivo vs lente de google android 12

iOS 15 ofrece una serie de funciones sobre la mesa. Una de las principales mejoras del sistema operativo es la capacidad de extraer texto de imágenes. IOS 15, llamado Live Text, hace que sea más fácil perder un número de teléfono o visitar un sitio web directamente desde su cámara. Los dispositivos Android tienen esta función desde hace algún tiempo, llamada Google Lens. ¿Cómo se compara Live Text en iOS 15 con Google Lens en Android 12? Vamos a cavar.

Después de publicar un Siri detallado en iOS 15 versus el Asistente de Google en Android 12 la semana pasada, YouTuber Revisiones en profundidad publicó un video que compara Live Text en iOS 15 con Google Lens en Android 12. Antes de echar un vistazo a los resultados de la prueba, debemos tener en cuenta que iOS 15 está en versión beta en este momento. Apple ajustará la función de minería de texto antes del lanzamiento estable en el otoño.

Live Text vs Google Lens: reconocimiento de texto

El YouTuber dividió la prueba en seis partes. El primero, y el más importante, es cómo funciona el reconocimiento de texto en ambos. iOS 15 tiene un mejor sistema de reconocimiento de texto, ya que puede buscar texto directamente desde Spotlgith; no necesita ir a la imagen y seleccionar el texto, puede hacerlo directamente escribiendo el texto que está buscando directamente en Spotlight.

Al extraer texto de imágenes que tienen texto impreso, como tarjetas de contacto y folletos, tanto Google Lens como Live Text funcionaron a la perfección. Sin embargo, al extraer texto de imágenes escritas a mano, Google Lens tomó la iniciativa. En general, ambos servicios de minería de texto funcionaron bien.

Traducción de texto

Cuando se trataba de traducir texto a partir de imágenes tomadas desde una computadora, tanto Google Lens como Live Text funcionaron bien. Sin embargo, una vez más, Google Lens tradujo mejor el texto cuando se trataba de traducir texto de imágenes escritas a mano.

Búsqueda visual

Visual Lookup es una función de iOS 15 que proporciona información sobre un punto de referencia directamente desde la aplicación Fotos. Google Lens ya puede hacer esto, con una capacidad adicional para buscar objetos también. Como era de esperar, Lens llegó a la cima ya que Live Text no reconoce objetos en este momento. Incluso al extraer puntos de referencia de una imagen, Live Text cometió un error al identificar el Puente Tolerancia de Dubai como el Puente del Milenio de New Castle.

De esta prueba se desprende claramente que Live Text todavía está en versión beta en este momento. Apple afinará aún más el software en los próximos días, y hablaremos más sobre ello a medida que se acerque el lanzamiento.

¿Estás ansioso por probar la nueva función de texto en vivo de iOS 15? Puede descargar e instalar iOS 15 Beta 1 en su iPhone ahora mismo.

Personalmente, sigo siendo fanático de Live Text en iOS 15. El hecho de que puedas buscar cualquier texto de cualquier imagen directamente desde Spotlight me emocionó. ¿Ya ha probado Live Text? ¿Prefieres Google Lens o Live Text de Apple? ¿Por qué lo prefieres al otro? ¡Háganos saber en la sección de comentarios!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *