Transcripción de texto

Tiflo Audio Podcast 217

Desde Puerto Rico: un junte tecnológico con Jonathan Chacón

A continuación, se presenta la transcripción de texto del episodio 217 de Tiflo Audio Podcast.

Comienzo del episodio

[Síntesis de voz]
Cargando el episodio 217.
[Efecto de sonido].
Tiflo Audio Podcast.

Introducción y bienvenida

[Vos de José Manolo Álvarez]
Saludos amigos y bienvenidos al episodio número 217 de Tiflo Audio.

El podcast donde presentamos y demostramos tecnologías accesibles para las personas ciegas.

Como siempre, reciban un tecnológico saludo de este su amigo, José Manolo Álvarez, hoy grabando desde la terraza de mi casa en Puerto Rico. Así que van a escuchar el paisaje sonoro de todo lo que está a nuestro alrededor.

En el episodio de hoy tenemos a un invitado muy especial que viene directamente desde Sevilla, España.

¿Cómo estás Jonathan?

[Vos de Jonathan Chacón]
Buenas Manolo, estoy muy bien, muy bien acogido y muy feliz de estar aquí en Puerto Rico.

[Vos de Manolo]
Jonathan es un experto internacional muy reconocido en el área de las tecnologías para personas ciegas.

Vino a Puerto Rico ya que fue el orador principal de el segundo congreso de accesibilidad digital que celebramos en la universidad de Puerto Rico, y aproveché ya que estaba por acá y le dije, Jonathan, vamos a grabar un Tiflo Audio, y lo invité para que pasara una tarde por acá, por casa y aprovechamos y estamos aquí en la terraza grabando este episodio.

[Vos de Manolo]
¿Qué te ha parecido Puerto Rico Jonathan?

[Vos de Jonathan]
Pues está siendo una experiencia deliciosa literalmente porque se come muy bien, hay un paisaje sonoro increíble.

Yo acostumbrado a la flora y a la fauna del sur de España, pues acá tanto el coquí como la cacatúa puertorriqueña, o sea si no habéis visitado el caribe está estardando.

Por ciento de la carga de la batería en el celular

[Vos de Manolo]
Bueno vamos a comenzar la dinámica que vamos a tener en el podcast. Yo le voy a hacer a Jonathan varias preguntas, que son las preguntas más frecuentes que a mí me hacen por correo electrónico, por las redes sociales, cuando voy a alguna conferencia, y ya que tenemos a Jonathan, que es un experto en tecnología, le dije, Jonathan yo te voy a hacer las preguntas que a mí me hacen las personas ciegas, y de esta manera ustedes también podrán tener las respuestas a esas preguntas que son más comunes.

Voy a empezar por una que me la hacen constantemente, no está relacionado directamente a las tecnologías de personas ciegas pero quiero hacérsela a Jonathan y que Jonathan nos las conteste.

Jonathan una pregunta que a mí me hacen constantemente, con el iphone o el android, ?Debo cargar la batería al 100% o la cargo al 80%? ¿Qué es lo mejor para mantener la vida de la batería?

[Vos de Jonathan]
Con la tecnología que tenemos actualmente de baterías, con la actual, o sea, cualquier cosa posterior a un iphone 7, debe estar en los baremos de entre el 20% y el 80%. También evitar el abuso de las cargas rápidas, bien sean por inducción, o bien sean por cable, siempre entre un 20 y un 80 y que el teléfono el celular se caliente lo menos posible.

[Vos de Manolo]
Pues ahí lo tienen, en este episodio hemos acabado de inaugurar una sección, Jonathan te informa. Acaban de recibir un consejo gratis, para mejorar la vida de la batería de su celular. Pues ya tienen ahí la opinión del experto.

La inteligencia artificial y la accesibilidad digital

Vamos para la segunda pregunta. Jonathan, vamos a hablar sobre la inteligencia artificial y la accesibilidad.

Tenemos una página de internet que no es accesible, que es bastante común en cualquier sitio que nosotros vayamos hoy día.

¿La inteligencia artificial puede ser la herramienta que me haga esa página accesible? O sea, me puede hacer remediation y así pueda cumplir con las guías de accesibilidad, o eso estamos lejos de hacerlo. Eso son medias verdades, te pongo esa línea y por ahí tú lo desarrollas.

[Vos de Jonathan]
Muy bien. Pues hoy con lo que tenemos, abril de 2025, no se consigue magia con la inteligencia artificial ni con herramientas automáticas. Por desgracia, todavía hay criterios de accesibilidad sobre todo a los contenidos web que requieren que una persona valide esa descripción alternativa por una imagen, o esa estructura de encabezados, o esos colores de los contenidos, o que es un elemento decorativo y que no es un elemento decorativo, que pueda ayudar a limpiar, o eliminar, o validar ciertos elementos de la estructura general de la página web

Gracias a la inteligencia artificial, se está trabajando mucho en eso. Pero el problema es que la inteligencia artificial de hoy día, ha aprendido a partir de los cursos de los libros, de los tutoriales que existían antes del 2024 en la web de cómo crear páginas web, cómo crear blogs, cómo crear contenidos digitales y Manolo, yo creo que todos sabemos que la mayoría, la gran inmensa mayoría de esas páginas, de esos cursos, de esos tutoriales, no tratan la accesibilidad.

Lo que implica que la inteligencia artificial, por defecto, como no es un contenido mayoritario a la hora de crear un contenido, o a la hora de aplicar un parche corrector, no aplica la accesibilidad a menos que la persona que esté solicitando la ayuda por inteligencia artificial le indique que la solución que tiene que crear es accesible, y ahí es la primera parte de la pregunta.

La segunda parte, es que aunque le expliquemos que queremos que cree ese código HTML, o ese código CSS, o Javascript accesible, va a hacerlo accesible atendiendo a unos conocimientos que no son estándares, porque a veces cuando va a generar la respuesta, va a tomar la información que aprendió en una página web, la próxima que se lo pregunte, va a tomarlo de otro sitio, porque las inteligencias generativas no mantienen el mismo conocimiento en todo momento, sino que para buscar esa creatividad artificial, lo que hace es que a la hora de generar respuesta, crea un número aleatorio que va a tomar decisiones sobre cómo va a ser la respuesta.

Y podemos tener suerte y que la respuesta se genere a partir de un conocimiento que esté bien en cuanto accesibilidad para personas ciegas, pero a lo mejor otro día pedimos lo mismo, i va a utilizar la accesibilidad para personas con problemas de motricidad, otro día va a hablar de personas sordas y tampoco entiende lo que está generando. Por ejemplo, una inteligencia artificial te va a decir que a la hora de hacer accesible un enlace o un botón, se tiene que aplicar una etiqueta, se tiene que aplicar un estado, se tiene que aplicar un rol o trade, y no va a entender que si tú ya estás utilizando un componente botón, no tienes que aplicar el trade porque el botón ya es un botón.

Entonces podemos encontrarnos situaciones de aceptar botón, botón, botón activado, que hemos visto en algunas páginas web, y hemos visto en algunas aplicaciones para iphone y para android, por que los desarrolladores están empezando a utilizar los parches de accesibilidad de android studio, de swifling, de fluter, que generan esa redundancia en las soluciones de accesibilidad.

EL desarrollador no sabe qué está sucediendo, pero es que la inteligencia artificial tampoco. Tenemos ahí un nuevo problema de accesibilidad, que es la redundancia de información semántica, que provoca malestar para los usuarios de lectores de pantalla.

Conclusión: ¿Se va a conseguir? Si, se va a conseguir, pero faltan, yo digo que unos 4 o 5 añitos para conseguir una accesibilidad suficiente, no legalmente completa, o sea, para conseguir una accesibilidad legal lo que es WCAG, o une, o 508, eso siempre va a tener que haber una persona que valide que esa solución de accesibilidad es realmente compatible con lo legal, pero una solución para andar por casa, que podamos viajar por una página web, pulsar todos los elementos y encontrarnos barreras leves de accesibilidad, si eso en tres, cuatro años como máximo, lo vamos a tener gracias a la inteligencia artificial.

[Vos de Manolo]
Fíjate, yo he escuchado posiciones de todas partes, del usuario, de compañías que trabajan con overlays, de desarrolladores. La realidad que tenemos ahora es que la inmensa mayoría de las páginas no son accesibles. Inclusive, uno de los pocos estudios que hace WebAIM, que hacen las pruebas de accesibilidad con un millón de páginas webs y los lectores de pantalla, más del noventa y pico por ciento sale que no son accesibles. Yo he escuchado a empresas de overlays que dicen, mira lo que hay que hacer es actualizar esas guías para que sean menos restrictivas, y se hagan para que la inteligencia artificial las puedan cumplir.

[Vos de Jonathan]
Pues yo quiero recuperar vista, y si yo recupero vista, pueden rectificar las normas.

[Vos de Manolo]
Por eso lo traigo, porque hay cosas para nuestro colectivo que no pueden ser negociables. Entonces, jonathan lo trajo excelentemente, puede haber una ley, y esa ley puede ser muy buena porque puede ser un marrón para tratar de forzar, y tratar de crear precedentes, pero ya hay unos estándares, y esos estándares están claros, y lo que nosotros siempre debemos procurar es que esos estándares al final tengan el resultado práctico de que la página sea accesible como tal.

Así que en ese sentido, pues quería también traerlo, porque usted va a una página web y lo más fácil del mundo sería que se le ponga un overlay que ya haga la página accesible para que su universidad o su centro de trabajo no lo demanden, porque ya está haciendo un esfuerzo. Oye, si usted entra y la página no es accesible, no es accesible, no importa que tenga un overlay.

[Vos de Jonathan]
Pero además hay que tener en cuenta, perdona que te interrumpa, que tanto el European Dissability Forum, que es el órgano de representación de la discapacidad en el gobierno europeo como la propia corte de defensa de los derechos de las personas con discapacidad en los Estados Unidos, ya han definido los overlays de accesibilidad como herramientas insuficientes para garantizar esa accesibilidad mínima necesaria para la web.

[Vos de Manolo]
Muy buen punto.

[Vos de Jonathan]
O sea, ya han dicho que eso no es suficiente. Es más, hay overlays que provocan conflictos con los productos de apoyo. Hay overlays que cuando se activan, voluntario o involuntariamente por el usuario, Talk Back deja de funcionar. o en NVDA deja de comportarse como el usuario conoce, y empieza a cambiar los atajos de teclado, o directamente por ejemplo, los sistemas de control por voz para Windows, no funcionan y tú no puedes decir pulsa cerrar, porque se ha capturado el micrófono para el overlay, y el usuario deja de poder utilizar su máquina, y si no tiene manos funcionales, lo único que le queda es gritar por ayuda, que venga una persona y le cierre la pestaña del navegador.

[Vos de Manolo]
Sin dudas, tremendo punto.

Y al final, para terminar con esta segunda pregunta y pasar a la tercera pregunta, no podemos avanzar la accesibilidad si el usuario no se involucra, si nosotros como personas ciegas no dejamos saber que la página no es accesible, si nosotros como organizaciones de personas ciegas vamos y cabildeamos, o sea, nosotros somos parte fundamental para tratar de seguir aumentando el nivel de accesibilidad de los diferentes contenidos digitales.

Integración de la inteligencia artificial en los lectores de pantalla

Vamos para la próxima pregunta. Me quedo en el tema de la inteligencia artificial, pero ahora con los lectores de pantalla. Por ejemplo, algo tan sencillo que resulta hoy día, yo puedo estar usando Voice Over y le puedo decir que me reconozca una imagen que me la trate de describir, ¿Cómo tú ves el futuro de los lectores de pantalla y la inteligencia artificial? ¿Va a cambiar como nosotros conocemos un lector de pantalla hoy?

[Vos de Jonathan]
Te comento. En el 2018, los lectores de pantalla, tanto de móviles celulares, como de equipos de escritorio, se han estancado, no tenían nada nuevo, porque no podían ir más allá.

Con la aparición de la inteligencia artificial asequible no es necesario tener una máquina enorme para ejecutar un sistema experto pequeñito. Los lectores de pantalla empezaron a tener la capacidad de solucionar los problemas de accesibilidad, que quiero pensar involuntariamente un desarrollador incorporaba en sus aplicaciones. Muchas veces, Voice Over o el propio Talk Back identifica botones que el desarrollador no ha marcado como botones. Pero tanto Talk Back como Voice Over encuentran que esa etiqueta de texto es clickable se puede hacer clic sobre ella, dice pues esto es un botón y voy a nombrarlo como botón. Entonces, el usuario ciego no sabe que ese botón originariamente no era accesible.

¿Qué pasa? Que la inteligencia artificial que tenemos ahora en muchos casos no están listas, no es suficiente, que es lo mismo que le pasan a los overlays de accesibilidad, que son muy rudimentarios, entonces a veces cometen errores, o a veces los resultados que nos dan, por ejemplo, cuando pedimos la descripción de un botón que nos dice botón cerrar, y es porque ve que hay una cruz, pero no es una cruz en diagonal, si una cruz en vertical, y eso es sumar, añadir, y a veces encontramos un botón cerrar que lo pulsamos y nos lleva a añadir un producto más en el carrito. Eso en Voice Over se solucionó en iOS 18, pero en Talk Back dependiendo la versión, porque ya sabemos que en android hay bastantes fragmentación, por desgracia, sigue habiendo confusiones, ven una cruzeta, una cruz y no ven el ángulo de inclinación que eso es o cerrar una x o añadir producto.

Y el futuro de los lectores de pantalla y de muchos productos de apoyo, va a ser que la inteligencia artificial va a entender el contexto de lo que está mirando. De este botón está arriba a la izquierda, arriba a la izquierda normalmente según la guía de estilo de diseño de aplicaciones de Apple y de Google, se coloca el botón de atrás o de retroceder o de cerrar y entonces, va a decir esto es una cruzeta, es un botón de cerrar.

Y lo más interesante es la interoperabilidad que se va a alcanzar entre distintos productos de apoyo. Apple empezó permitiendo usar Voice Over con Voice Control, o Voice Over con Zoom, o Zoom con Voice Control, pero nunca ha terminado de ir fino, y tienes que personalizar mucho y recordemos que no podíamos personalizar ni Voice Control ni Voice Over hasta el año 2017, o sea, esa interoperabilidad para personas con distintos perfiles de discapacidad era una pesadilla.

Con la inteligencia artificial, va a ser el man in the middle, la persona en el medio de todos los productos de apoyo para que la persona ciega, que además utiliza la voz reciba una lectura de abrir una aplicación. Le digo, iphone ábreme la aplicación para comprar entradas de cine y Voice Over, me va a leer entradas de cine. Esperamos unos segundos, esto es el ideal que vamos a alcanzar, es una hipótesis, bueno pues tras esos segundos dice en la pantalla, aparece una barra de pestaña abajo y una oferta flash que si compras ahora las entradas para ver Terminator 25 te sale a 50 por ciento. Y tú le dices, compralas y él te va a entender, y va a buscar el botón de publicidad de Terminator 25 y se va a ir al botón de comprar. Porque va a navegar como tú navegarías y va a entender lo que tú quieres y va a hacer una interpretación por ti.

¿Eso va a provocar que nos volvamos además de ciegos torpes y tontos?

No. Simplemente nos va a facilitar la navegación por sitios con muchas barreras, va a ser un producto de apoyo que además de ayudar a las personas ciegas va a ayudar a otros perfiles donde llegar a algún sitio va a ser más complicado. Va a encargarse de simplificarnos la vida. Y entonces, la inteligencia artificial poquito a poco se está convirtiendo en un pilar de evolución de todos los productos de apoyo, no sólo de los lectores de pantalla.

[Vos de Manolo]
Excelente. Fíjate que en ese ejemplo, una persona usuaria de lector de pantalla, tendría que tener unas destrezas en el uso del lector de pantalla para poder moverse por las pestañas, no todas las personas ciegas tienen el mismo nivel de conocimiento y destrezas al usar el lector de pantalla. Entonces, muchas veces el no tener esas destrezas, puede ser la diferencia en conseguir lo que quería, y con la inteligencia artificial permite simplificar la navegación y así las personas ciegas tengan una oportunidad real de poder llegar ahí, independientemente de no tener un alto conocimiento en el uso del lector de pantalla.

[Vos de Jonathan]
Claro, y además se abre una asignatura pendiente en todos los que desarrollamos aplicaciones y todos los que desarrollan herramientas de accesibilidad, que es la ayuda al usuario en cualquier momento de la forma más específica.

Voice Over de iOS 23, por poner un ejemplo, dice la aplicación de ventas de entradas de cine se ha abierto, abajo tiene la barra de pestaña con tres opciones, y tú le puedes preguntar oye Voice Over, ¿Qué es una barra de pestaña? y él se va a su módulo de inteligencia para resolver preguntas, dice una barra de pestaña en una aplicación de iPhone, es un sistema de navegación que consiste en un selector con varios botones donde cuando tú seleccionas un botón la pantalla cambia pudiendo aprovechar el espacio de la pantalla para navegar de forma simplificada.

Y tú le puedes decir no te entiendo, explícamelo de forma más sencilla y decirte es una forma de navegar por la aplicación cuando tú pulsas un botón de abajo de la barra cambia la pantalla puedes irte a inicio, puedes irte a ventas, puedes irte a compra, o irte a configuración, dependiendo el botón que púlse abajo la pantalla cambiará como si fueran cuatro menús en uno.

Y dices tu, pues ya lo entiendo o no lo entiendo. Una de las cosas más importantes que tenemos que entender es que a diferencia de los humanos, la inteligencia artificial es un modelo de atención a las personas que tienen paciencia infinita. Lo más probable es que nos cansemos nosotros antes de preguntar que la inteligencia artificial de respondernos. Entonces, para esas personas con problemas de atención o problemas de adquisición de conocimiento o de aprendizaje, es una solución indispensable que hoy por hoy no está suficientemente maduro, pero que está cada seis meses evolucionando muy a favor de ayudar a las personas.

Vehículos aotónomos y las personas ciegas

[Vos de Manolo]
Bueno nos vamos para la próxima pregunta.

¿Los carros autónomos podrán ser una realidad para que las personas ciegas en algún momento de manera tangible los puedan utilizar?

[Vos de Jonathan]
Sin límite de tiempo, sí, tajantemente si. Que vaya a ser en esta década, hay un problema de convivencia.

Los vehículos autónomos tienen problemas de convivencia con vehículos no autónomos. ¿Por qué? Porque el vehículo autónomo, incluso ahora que están evolucionando para convivir con vehículos no autónomos, o sea, vehículos conducidos por otras personas, nunca cometen infracciones de tráfico. En cambio los humanos si las cometen, voluntariamente o involuntariamente, ahí no me voy a meter, pero eso provoca que el comportamiento, la reacción, las decisiones del vehículo autónomo no sean seguras. La gran mayoría de los accidentes provocados por un vehículo autónomo han sido porque durante su aprendizaje, han convivido con vehículos donde los humanos estaban cometiendo faltas de circulación.

Entonces, aunque tú le digas las reglas de conducción, en California, es que no puede superar las 50 millas por hora, por ejemplo en una autopista, pero si ve que todos los vehículos van a 65 millas, e incluso el vehículo que va detrás del coche autónomo le está pitando para que acelere, busca un criterio de normalidad y dice, bueno en California no se puede conducir a 50 millas por hora, a menos que todo el mundo conduzca 65 y él mismo aprende una excepción que es errónea, pero lo aprende como tal y ese es un problema que están teniendo ahora que están aprendiendo a convivir aceptando las infracciones de los conductores.

El día que podamos sustituir a todos los vehículos manuales, los vehículos autónomos van a ser una realidad. ¿Qué va a pasar antes de llegar a esa realidad? Que vamos a convivir los vehículos manuales con los vehículos dirigidos remotamente.

Un señor conductor va a estar en el salón de su casa delante de un ordenador con cinco pantallas esperando a que un vehículo autónomo encuentre una situación que no puede resolver, que tenga dudas. Entonces le llega una notificación a este conductor y resuelve la duda y toma unas decisiones, conduce hasta que el vehículo autónomo diga de nuevo ya me siento seguro para conducir yo solo. Y entonces el conductor humano pasa a otros vehículos con problemas.

Un conductor, como puede ser un conductor de Cabify, en un futuro o esperemos que no muy lejano, puede conducir 5, 6, 8 coches desde su casa. Puede atender a muchos más viajes, y recordemos que estos conductores ganan dinero en razón a cuántos viajes realizan. Entonces, se minimiza la dependencia humana, pero se amplía el trabajo de estos conductores para una mejor satisfacción.

Hay una realidad clara, que es en el caso de las personas ciegas, es llegar al vehículo autónomo. O sea, yo puedo tener la aplicación para que venga a recogerme un vehículo autónomo totalmente accesible, pero el vehículo autónomo llega, yo no lo veo como persona ciega donde está el vehículo autónomo. Una solución muy sencilla es que el vehículo autónomo empieza a pitar, pero imagínate Manolo, que estamos a la salida del concierto de los Stones y hemos pedido muchas personas un vehículo autónomo. ¿Cuál es el ?mío Hay 30 coches pitando.

Entonces, todavía no hay una solución clara sobre cómo resolver eso. Usar ultrawide van para desde mi iPhone llegar al vehículo puede ser una solución, pero estamos exponiendo a la persona ciega a un trayecto complicado de cruzar entre vehículos en la calzada es peligroso.

Todavía no hay una solución clara. Imaginemos que el vehículo autónomo llega, pero otros vehículos no le permiten llegar a la acera para aparcar y recoger al pasajero ciego que está a unos 100 pies, a 50 pies de distancia donde tú estarás hay multitud de casuísticas por resolver, y en muchos casos muchos de esos problemas serán porque las ciudades se han diseñado de forma que no son cómodas para vivir. Las ciudades en su origen han crecido como sitios donde reunirse para trabajar o mercadear y a veces vivimos en ellas pero no disfrutamos del paseo.

Se han tenido que crear instalaciones en esas ciudades, como los paseos alrededor del río, ciertos paseos marítimos, parques, son construcciones no naturales en una ciudad y se toman como zonas recreativas. Pues lo mismo está pasando, no tenemos zonas útiles para que los vehículos autónomos recojan y dejen a la gente. Cuando sólo existan vehículos autónomos, las ciudades tienen que evolucionar.

[Vos de Manolo]
Jonathan, cuéntame, ¿Te has montado en un vehículo autónomo? Y si es así, ¿Nos puedes contar tu experiencia?

[Vos de Jonathan]
Pues tuve la oportunidad en el 2021, en Nevada, Las Vegas, en el congreso del CES, en uno de Waymo, y fue curiosa.

[Vos de Manolo]
¿Cómo se siente? ¿Es brusco en las curvas? ¿Cómo se siente cuando acelera?

[Vos de Jonathan]
Pues a mí me pareció correcto, porque cuando la circulación era brusca, el comportamiento era brusco, pero el frenado cuando llegamos a paradas, si fue muy progresivo, muy agradable. Pero la salida si iba un poco entusiasmado, entonces, yo creo que la experiencia es satisfactoria, si, es muy divertido, porque estás obligado a hablar con quien viajas sabiendo que nadie te está escuchando, o pensando que nadie te escucha.

Por poner el ejemplo, para que los que nos escuchan lo entiendan, tú el Waymo lo solicitas a través de una aplicación y el viene a recogerte. Pita, puedes decirle que pite desde la aplicación y en la aplicación de tu celular has marcado el destino. Cuando tú te montas en tu aplicación le dices ya estoy dentro y él lo confirma sabiendo que el celular está ahí dentro.

Empieza a caminar y tú puedes ver en tu celular por dónde va el recorrido, por supuesto, totalmente inaccesible la aplicación. Que la gente no se lleva equivocación, la aplicación es muy de contenidos visuales, pero Voice Over, no lo va a leer. La aplicación además tiene muchos botones sin etiquetar y por supuesto, los mapas de Google que no eran compatibles con Voice Over en esa versión de la aplicación.

[Vos de Manolo]
¿Te dió miedo?

[Vos de Jonathan]
No, yo he de reconocer que yo soy un kamikaze tecnológico. Me he llevado más de un calombrazo haciendo experimentos y lo disfruté como novedad, pero luego es una experiencia que reduce, porque esperas algo, y dice pues no es tan distinto a la realidad. Seguimos con los problemas de siempre, que pedimos un vehículo y si nadie me asiste yo no puedo llegar al vehículo. Entonces que el vehículo conduzca solo también es el 80% de la tarea llegar al destino, pero que me enfrento a la realidad de ese 20% no accesible, que aparte de la aplicación que sigue sin ser accesible, llegar al vehículo para montarse y una vez que ha llegado al destino bajarse del vehículo y orientarte tú para saber si te ha dejado donde tú esperas y la puerta del centro comercial por ejemplo está justo delante de donde te ha dejado o tienes que caminar, buscar una entrada, o pedir ayuda a alguien, o sea, el viaje es accesible entre comillas. Pero toda la experiencia todavía hay mucho que trabajar

[Vos de Manolo]
Disculpen pues estoy aquí en la terraza de mi casa, como les dije, y ahora un vecino parece que hizo algo y el perrito del vecino pues se está comunicando con él otro perro. Así que me sirvió para entender el ejemplo de los carros autónomos que se comunican con otros carros autónomos.

Tecnología y la medicina para que personas ciegas puedan recuperar la vista

Bueno Jonathan, otra pregunta que te tengo y que me hacen mucho, ¿Cress tu que la tecnología pueda en algún momento lograr que una persona ciega pueda ver? Principalmente con este proyecto Neurolink de Elon Musk, que es un implante en el cerebro y demás, desde tu perspectiva como experto en tecnología, ¿Eso es viable o es ciencia ficción?

[Vos de Jonathan]
Es viable. Pero a lo mejor no es viable en 50 años, porque el problema no es implantar sensores, o cables, o un módulo de comunicación con el cerebro. El problema que tenemos actualmente, es entender cómo se comunica el cerebro tanto para transmitir información como para recibir la información del cerebro. O sea, estamos aprendiendo a comunicarnos con un cerebro. Enviamos impulso de un voltaje de 0.01 voltios en cierta parte del córtex cerebral superior y eso provoca que una persona que vea como volutas de color amarillo y una persona ciega que ha visto se le aplica en el mismo sitio y ve volutas de color amarillo dentro de su ceguera, tiene esa sensación de ver eso, eso ya se ha conseguido.

El problema es que nos metan una corriente eléctrica para ver volutas de color amarillo, a poder transmitir una imagen, de creo que era esto de memoria, 7.680 píxeles de ancho por 5.600 píxeles de alto, que sería lo más parecido a la visión de un ojo, no de los dos, de un ojo.

Pues todavía queda muchísimo, no sabemos colocar un píxel, un punto de información visual en esa pantalla imaginaria que tenemos en nuestro cerebro. Entonces ahora lo que se está haciendo es probar qué sistemas cibernéticos, y cuando hablamos de cibernética es tecnología física, hardware que se implanta dentro del cuerpo, que tecnología de cibernética es la menos dañina y menos riesgosa para que una persona tenga un implante en el cerebro, tenga un implante en el cuerpo, porque todos los implantes que tenemos ahora aunque se utilice titanio de cirugía, implantes de platino, todos los implantes que tenemos actualmente requieren una revisión cada cinco o diez años, porque puede generar rechazo por contaminación, puede terminar en una sepsis, en la operación quirúrgica tiene unos riesgos.

Yo no sé tú Manolo, pero yo prefiero aguantar un poquito más y no correr porque si nos apresuramos, además de ciego podemos quedar tontos, porque una vez se toca en el cerebro, si se comete un error, necesitamos un proceso quirúrgico que tenga una efectividad y una seguridad de más del 99 por ciento, porque no es lo mismo que te corten un poquito un músculo de una pierna, por un implante para una pierna que te dañen una pared del cerebro, de eso no hay recuperación.

[Vos de Manolo]
Y si la expectativa fuera para ver 20/20, pero precisamente por eso lo traigo, esa no es la realidad.

Muchas veces nuestros familiares o amistades ven alguna noticia y de inmediato se lo creen. Pero nosotros que difundimos lo que es la tecnología de una manera responsable para las personas ciegas, debemos presentar la información como es y no de manera sensacionalista.

[Vos de Jonathan]
Claro, y hay que ser también responsables con una cosa, hoy por hoy, quizás mañana no, pero hoy por hoy, una persona ciega que esté actualmente ciega que no haya visto antes, todos los sistemas, todas las tecnologías que se están probando para que una persona ciega vuelva a ver, es contando con que ese cerebro ha visto antes. Hoy por hoy no se conoce ningún procedimiento para que un adulto ciego congénito, ciego de nacimiento aprenda a ver de forma artificial. Hoy por hoy no se sabe, hay muchas teorías, muchísimos sistemas de estimulación cerebral para intentar transmitir conceptos visuales, pero no se están probando porque todavía no tenemos un mecanismo claro y seguro para hacer ese implante. Y vuelvo a repetir lo que dije al principio, no sabemos comunicarnos de forma precisa con un cerebro humano. Así que llegaremos ahí, sí, llegaremos pronto ahí, no.

[Vos de Manolo]
Y es importante que lo tengan bien presente para que no se hagan falsas expectativas. Siempre pues hay que poner la tecnología en una justa perspectiva y una de las barreras más grandes que yo siempre hablo sobre la tecnología que tampoco la podemos sobre estimar.

[Vos de Jonathan]
Claro. Mira cuando yo he trabajado en investigaciones de desarrollo creamos un mantra a los compañeros, a los investigadores, tienes que darle recursos y tiempo, darle dinero, darle hardware, darles software, pero darle tiempo, necesitamos tiempo porque aprendemos de los errores, aprendemos de los éxitos, pero montar una batería de pruebas para entender si eso es un error o es un éxito, a lo mejor un experimento de 7 segundos de comunicación cerebral, ha tenido una preparación y un análisis previo de meses o incluso años para definir y describir una prueba de comunicación cerebro máquina que dura segundos, porque hay que analizar cada impulso eléctrico que se envía y cada impulso eléctrico que se recibe a en grados de millonísimas de unidad de voltios con millonésimas de segundos, porque el cerebro no entiende de segundos, de hora o de minutos, entiende de millonésimas de segundos y tenemos que ponernos a comunicarnos a su velocidad y con su idioma.

Entonces necesitamos mejores aparatos para medir eso, mejores cronómetros, mejores polímetros, mejores sensores y todo con cada evolución, con cada integración de la tecnología para crear esos experimentos se va avanzando pero en mi opinión, y hablo mi opinión que a lo mejor no sé si sale los más o darpa o alguien que está trabajando y no está publicando tanto dice señores acabo de inventar un sensor piezoeléctrico con un material que ha creado una inteligencia artificial y acabamos de avanzar 50 años en tecnología. Vale pero hoy por hoy, nadie está haciendo nada de eso, que se sepa.

Si es cierto que hay mucha investigación que no se está publicitando porque hay ahora mismo estamos también con el miedo de el primero que levanta la liebre le pueden copiar, entonces que vamos a llegar ahí que no va a haber ciegos en el futuro, si va a haber personas que nacieron con un problema de visión y sus ojos no van a ser funcionales y a través de la medicina no es la medicina que tenemos ahora sino medicina cibernética, vamos a tener personas que bien tengan músculos artificiales para los que no pueden mover brazos y piernas o van a tener sensores oculares o transformadores o traductores de la información visual al cerebro, porque a lo mejor tú tienes un ojo funcional, tienes tus ojos perfectos, tienes el cerebro perfecto, pero el cable que los une, el nervio óptico, no funciona. Sustituimos el nervio óptico por otra cosa, entonces la medicina del futuro con la cibernética va a ir a sustituir los componentes orgánicos que fallan por otros que sí funcionen.

Resumen

[Vos de Manolo]
Bueno con esto termino las preguntas para Jonathan.

Recuerden mis preguntas fueron desde una perspectiva tecnológica, pero aquí hay muchos factores, por ejemplo, con esto de un implante en el cerebro o en la retina, cada persona determina si lo quiere o no lo quiere hacer. Yo le pregunté a Jonathan para que ustedes tengan una idea de hoy día que realmente puede ser algo que es viable o que es ciencia ficción.

Lo mismo con el carro autónomo, pues usted determina si se monta o no se monta. O el uso de la inteligencia artificial, usted puede tener su opinión si es buena o mala, pero de que se está implementando, y de que nos puede ayudar en la accesibilidad y que se está implementando con los lectores de pantalla, son realidades tecnológicas. Pues quería hacer esa aclaración.

Información de contacto

Bueno Jonathan, pues si nos puedes dejar tu información de contacto.

[Vos de Jonathan]
Pues por supuesto Manolo, me pueden encontrar fácilmente en mi blog www.programaraciegas.net y desde allí en el menú de navegación está el enlace de contactar por si quieren contactar conmigo o dejar un comentario en mi blog o en mi página de proyecto, que es Tyflos Accesible Software.

[Vos de Manolo]
Excelente Jonathan, pues lo he tenido con una sobredosis aquí en Puerto Rico de tecnologías Braille, porque esa es mi especialidad, las líneas braille de todo tipo, tuvimos tocando el Monarch, tuvimos tocando varias otras.

Y como les dije que estoy en la terraza de casa, pues ahora hace un calor, puerto Rico está en el caribe y vamos a finalizar el podcast para tomar unos jugos de Parcha, que es una fruta muy refrescante, y que tú crees, ¿Me aceptas esa Jonathan?

[Vos de Jonathan]
Si, por supuesto, me fío de ti.

[Vos de Manolo]
Bueno pues agradecido siempre por haber escuchado otro episodio de Tiflo Audio. Visitando www.tifloaudio.com podrán encontrar toda la información relacionada al podcast.

Despedida

[Vos de José Manolo Alvarez]
Así que agradeciendo nuevamente a Jonathan, será entonces amigos, hasta una próxima ocasión.
[Sonido de un coquí cantando]

Final del episodio

Ir a la página de Tiflo Audio Podcast.