Las 6 mayores limitaciones de la tecnología de inteligencia artificial by@shishir
16,182 lecturas

Las 6 mayores limitaciones de la tecnología de inteligencia artificial

2020/08/25
4 min
por @shishir 16,182 lecturas
tldt arrow
ES
Read on Terminal Reader

Demasiado Largo; Para Leer

El lanzamiento de GPT-3 marca un hito significativo en el desarrollo de la IA, pero el camino a seguir aún es oscuro. Estas son seis de las principales limitaciones que enfrentan los científicos de datos en la actualidad. Actualmente, grandes cantidades de datos se encuentran en manos de grandes organizaciones corporativas. Estas empresas tienen una ventaja inherente que las hace injustas para las pequeñas empresas emergentes que acaban de ingresar a la carrera de desarrollo de IA. Todavía queda trabajo por hacer para determinar los límites en los que usamos la IA, y todavía no hay consenso sobre la ética de implementarla.

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Las 6 mayores limitaciones de la tecnología de inteligencia artificial
shishir HackerNoon profile picture

@shishir

shishir
react to story with heart

Si bien el lanzamiento de GPT-3 marca un hito importante en el desarrollo de la IA, el camino a seguir aún es oscuro. Todavía hay ciertas limitaciones a la tecnología hoy en día. Estas son seis de las principales limitaciones que enfrentan los científicos de datos en la actualidad.

1. Acceso a los datos

Para que los modelos de predicción o decisión se entrenen correctamente, necesitan datos. Como mucha gente ha dicho, los datos son ahora uno de los productos básicos más buscados después del petróleo. Se ha convertido en una nueva moneda. Actualmente, grandes cantidades de datos se encuentran en manos de grandes organizaciones corporativas.

Estas empresas tienen una ventaja inherente que las hace injustas para las pequeñas empresas emergentes que acaban de ingresar a la carrera de desarrollo de IA. Si no se hace nada al respecto, se abriría aún más una brecha en la dinámica de poder entre las grandes yech y las nuevas empresas.

2. Sesgo

Las formas en que los sesgos pueden infiltrarse en los procesos de modelado de datos (que alimentan la IA) son bastante aterradoras, sin mencionar los prejuicios subyacentes (identificados o no identificados) de los creadores a tener en cuenta. La IA sesgada es mucho más matizada que solo datos contaminados. Hay muchas etapas del proceso de aprendizaje profundo por las que se pueden pasar los sesgos y, actualmente, nuestros procedimientos de diseño estándar simplemente no están equipados adecuadamente para identificarlos.

Como señala este artículo de MIT Technology Review , nuestro método actual de incluso diseñar algoritmos de IA no está realmente destinado a identificar y eliminar sesgos de forma retroactiva. Dado que la mayoría de estos algoritmos se prueban solo por su rendimiento, fluye una gran cantidad de pelusa no deseada. Esto podría ser en forma de datos prejuiciosos, falta de contexto social y una definición discutible de equidad .

3. Tiempo de cómputo

Aunque los avances tecnológicos se han extendido rápidamente en los últimos años, todavía existen algunas limitaciones de hardware, como recursos de cómputo limitados (para ciclos de RAM y GPU) que debemos superar. Aquí nuevamente, las empresas establecidas tienen una ventaja significativa, dados los costos que surgen del desarrollo de un hardware tan personalizado y preciso.

4. Costo

La extracción, el almacenamiento y el análisis de datos serán muy costosos tanto en términos de uso de energía como de hardware.

El costo estimado de capacitación para el modelo GPT-3 fue de $4.6 millones. Otro video (ver más abajo) predijo que para un modelo similar al cerebro, los costos de capacitación serían sustancialmente más altos que GPT-3, llegando a alrededor de $ 2.6 mil millones.

Además, dado que los ingenieros calificados en estos campos son actualmente un bien escaso, contratarlos definitivamente hará mella en los bolsillos de estas empresas. Aquí también, poniendo en desventaja a las empresas más nuevas y más pequeñas.

5. Ataques adversarios

Dado que la IA no es humana, no está exactamente equipada para adaptarse a las desviaciones de las circunstancias. Por ejemplo, la simple aplicación de cinta adhesiva en el lado equivocado de la carretera puede hacer que un vehículo autónomo se desvíe bruscamente hacia el carril equivocado y se estrelle. Es posible que un humano ni siquiera registre o reaccione a la cinta. Si bien en condiciones normales el vehículo autónomo puede ser mucho más seguro, son estos casos atípicos los que nos deben preocupar.

Es esta incapacidad de adaptarse lo que pone de relieve una falla de seguridad flagrante que aún no se ha abordado de manera efectiva. Si bien a veces "engañar" estos modelos de datos puede ser divertido e inofensivo (como identificar erróneamente una tostadora con un plátano ), en casos extremos (como con fines de defensa) podría poner vidas en peligro.

6. Sin consenso sobre seguridad, ética y privacidad

Todavía queda trabajo por hacer para determinar los límites en los que usamos la IA. Las limitaciones actuales resaltan la importancia de la seguridad en la IA y se debe actuar con rapidez. Además, la mayoría de los críticos de la IA argumentan sobre la ética de implementarla, no solo en términos de cómo hace que la privacidad sea un concepto olvidado, sino también filosóficamente.

Consideramos nuestra inteligencia inherentemente humana y única. Regalar esa exclusividad puede parecer conflictivo. Una de las preguntas populares que surge es que si los robots pueden hacer exactamente lo mismo que los humanos y, en esencia, volverse iguales a los humanos, ¿merecen los derechos humanos? Si es así, ¿hasta dónde llega en la definición de los derechos de estos robots? No hay respuestas definitivas aquí. Dada la actualidad del desarrollo de la IA, el campo de la filosofía de la IA aún se encuentra en sus etapas iniciales. Estoy muy emocionado de ver cómo se desarrolla esta esfera de la IA.

Línea de fondo

Hay ciertas facetas del desarrollo de la IA que han hecho que la entrada a este campo sea muy restrictiva. Dado el costo, la ingeniería y las necesidades de hardware, el desarrollo de IA plantea requisitos de capital significativos, lo que crea altas barreras de entrada. Si este problema persiste, es probable que las mentes detrás de su desarrollo sean predominantemente empleadas por la gran tecnología.

En el pasado, las revoluciones tecnológicas permitieron que nuevos jugadores irrumpieran en escena con sus ideas frescas. Así es exactamente como comenzaron las empresas a las que ahora nos referimos como grandes tecnológicas (Amazon, Google, Facebook, Apple y otras). Si bien ahora comenzamos a desentrañar la implicación de su gran poder, el impacto que han tenido en la sociedad es innegable. Es justo suponer que permitir que nuevas empresas y mentes surjan de una nueva generación conducirá a resultados positivos.

El desarrollo de la IA puede agravar la dicotomía entre los que están en el poder y los que no. También podría acelerar la brecha entre los humanos con IA y los pocos desafortunados que no la tienen. En lugar de humanos contra IA, el futuro podría parecerse a humanos con IA versus humanos sin ella.

Si bien, irónicamente, ese puede ser el impacto más tangible del desarrollo de la IA, no creo que sea el más significativo. Creo que las implicaciones filosóficas de la IA son las de mayor importancia. Aunque la idea de que una tecnología de este tipo nos haga cuestionar los principios básicos de nuestra existencia parece desalentadora, creo que esta experiencia será totalmente humillante. Es de esperar que conduzca a descubrimientos sorprendentes cuyas implicaciones trasciendan a los meros individuos y empresas.

Publicado anteriormente en: https://lucidityproject.home.blog/blog-feed/

HISTORIAS RELACIONADAS

L O A D I N G
. . . comments & more!
Hackernoon hq - po box 2206, edwards, colorado 81632, usa