paint-brush
La IA no es la preocupación, son los desarrolladores de IA los que deberían preocupartepor@funsor
2,841 lecturas
2,841 lecturas

La IA no es la preocupación, son los desarrolladores de IA los que deberían preocuparte

por Funso Richard6m2023/01/27
Read on Terminal Reader

Demasiado Largo; Para Leer

La IA tiene el potencial de revolucionar la forma en que vivimos, trabajamos y socializamos. Pero a medida que continuamos desarrollando y confiando en los sistemas de inteligencia artificial, es crucial que también abordemos el potencial de sesgo. Debemos reconocer que la verdadera preocupación no es la IA en sí misma, sino el sesgo de quienes la desarrollan y entrenan. Al ser conscientes de este problema y tomar medidas para mitigarlo, podemos asegurarnos de que el futuro de la IA beneficie a todos.
featured image - La IA no es la preocupación, son los desarrolladores de IA los que deberían preocuparte
Funso Richard HackerNoon profile picture

Ya no es noticia que ChatGPT y otros chatbots hayan reinventado nuestra comprensión e interacción con las herramientas de inteligencia artificial (IA). Muchas personas conocieron la IA por primera vez cuando Internet se volvió loco con el lanzamiento de ChatGPT en noviembre pasado.


Sin descartar la emoción asociada con el chatbot de OpenAI, estamos expuestos a herramientas y operaciones de IA a diario. Tomemos, por ejemplo, el hecho de que el motor de búsqueda y el mapa de Google se basan en IA para procesar consultas y generar respuestas en segundos.

La IA es lo bueno, lo malo y lo inevitable

Las posibilidades de lo que se puede hacer con ChatGPT y otras herramientas de IA han generado una euforia sin precedentes. Hay instancias de estas herramientas que crean contenido y documentos técnicos reservados exclusivamente para profesionales.


ChatGPT se ha utilizado para escribir códigos, desarrollar malware, generar ideas, traducir idiomas y mucho más. En 2022, el uso de Midjourney creció más de 1000% .


Las capacidades de estas herramientas también introducen el miedo al fin del mundo. Hay preocupaciones de paro masivo , plagio y educación pícaro impulsados por ai , litigio de derechos de autor , desinformación , resúmenes de investigación falsos , y democratización del cibercrimen .


Una demanda presentada el 13 de enero de 2023 acusó a Stability AI, Midjourney y DeviantArt de violando “los derechos de millones de artistas”.


La IA es el futuro. Debemos aprender a abrazar lo bueno e implementar medidas para minimizar el impacto de lo malo. Sin embargo, no hay duda de que la IA seguirá alterando la sociedad moderna.


Una encuesta reciente de estatista mostró que la Generación Z (29 %), la Generación X (28 %) y los millennials (27 %) usaban herramientas de IA generativa.


Se espera que los ingresos del mercado global de IA crezcan de $ 136 mil millones en 2022 a más $ 1,5 billones para 2030. Según IBM , el 35 % de las empresas utilizaba la IA en sus negocios, el 42 % exploraba la IA y el 66 % estaba ejecutando o planeando aplicar la IA para abordar los objetivos de sostenibilidad.


Los beneficios de la IA incluyeron la automatización del trabajo (30 %), el ahorro de costos (54 %), el rendimiento de TI (53 %) y una mejor experiencia del cliente (48 %).


Foto de Jemastock - stock.adobe.com


La creación de la IA

Dadas las muchas maravillas de ChatGPT y otras herramientas, es fácil suponer que las herramientas de IA son una fusión de hechicería y ciencia. Afortunadamente, no lo son.


La IA son modelos matemáticos basados en datos y generados en laboratorio diseñados para realizar tareas que requieren inteligencia humana, como reconocer patrones, aprender de la experiencia, resolver problemas y tomar decisiones efectivas.


El desarrollo de la IA está impulsado por avances en campos como la informática, la neurociencia y la psicología. Se basa en la idea de que la inteligencia humana puede ser modelada y simulada por una máquina.


Algunas de las tecnologías y técnicas clave utilizadas en la IA incluyen el aprendizaje automático, el procesamiento del lenguaje natural y la robótica.

Impacto del sesgo humano en el desarrollo de la IA

La noción de "basura que entra, basura que sale" es muy cierta en el caso de la IA. A medida que continuamos desarrollando y confiando cada vez más en los sistemas de IA, también debemos ser conscientes del potencial de sesgo en estos sistemas.


Si bien es fácil señalar con el dedo a la IA como el problema, la verdad es que la verdadera preocupación es el sesgo humano de quienes desarrollan y entrenan estos sistemas. Los sistemas de IA se comportan exactamente como sus desarrolladores quieren que se comporten.


El 69% de los investigadores de IA creen La IA y su desarrollo son un problema de seguridad y debería implicar una mayor atención a la seguridad.


El sesgo humano en la IA puede manifestarse de diversas formas, desde los datos utilizados para entrenar la IA hasta los procesos de toma de decisiones del propio sistema.


Por ejemplo, si un sistema de IA se entrena en un conjunto de datos que está compuesto de manera desproporcionada por un grupo particular de personas, es posible que no pueda comprender con precisión y tomar decisiones para otros grupos.


De manera similar, si un sistema de IA está diseñado para tomar decisiones basadas en ciertos supuestos o estereotipos, puede perpetuar sesgos dañinos en la sociedad.


Uno de los mayores problemas con la IA es el hecho de que los datos en los que se entrena pueden reflejar los sesgos de las personas que recopilan y seleccionan esos datos.


Por ejemplo, si un conjunto de datos utilizado para entrenar un sistema de reconocimiento facial se compone principalmente de imágenes de personas de piel clara, es probable que el sistema funcione mal cuando intente reconocer los rostros de personas con tonos de piel más oscuros.


Esta es una forma de sesgo que puede tener consecuencias en el mundo real, como en el caso de personas de color arrestadas falsamente debido a una coincidencia de reconocimiento facial defectuosa.


Pero no son solo los datos los que pueden estar sesgados, las personas que crean y entrenan estos sistemas también pueden introducir sesgos a través de sus propios prejuicios inconscientes.


por ejemplo, un estudiar descubrió que los modelos de lenguaje como GPT-3, que fueron entrenados en un conjunto de datos mayoritariamente racista y sexista, tienden a producir textos estereotipados y racistas. Esto puede perpetuar estereotipos dañinos y limitar el potencial de los sistemas de IA.


Foto de Monopoly919 - stock.adobe.com


Herramientas de IA socialmente responsables

Dado que el 74 % de las organizaciones no han tomado medidas para garantizar que su IA sea confiable y responsable, la urgencia de crear herramientas de IA socialmente responsables es una responsabilidad colectiva. Comienza identificando el potencial de sesgo y trabajando activamente para mitigarlo.


Esto significa diversificar el equipo de personas que trabajan en IA y garantizar que se represente una amplia gama de perspectivas y experiencias.


Es importante asegurarse de que los datos utilizados para entrenar la IA sean diversos y representativos de la población a la que atenderá. Esto implica seleccionar y curar cuidadosamente los datos para garantizar que no perpetúen los sesgos o estereotipos existentes.


Además, es importante considerar el impacto potencial de los datos en diferentes grupos de personas y obtener aportes desde diversas perspectivas para garantizar que los datos sean inclusivos y justos.


El diseño de los sistemas de IA debe ser transparente y explicable. Esto significa que los procesos de toma de decisiones de los sistemas de IA deben ser claros y fáciles de entender para los humanos, de modo que se puedan identificar y abordar los posibles sesgos o problemas.


Es esencial evaluar y monitorear regularmente el desempeño de los sistemas de IA para garantizar que funcionen según lo previsto y no perpetúen sesgos dañinos. Esto incluye analizar periódicamente los datos utilizados para entrenar los sistemas de IA, así como las decisiones y acciones de los modelos de IA.


El gobierno debe promulgar leyes y reglamentos que hagan cumplir el desarrollo y uso de IA socialmente responsable sin sofocar el crecimiento y el desarrollo.


Foto de Tierney - stock.adobe.com


Maximizar la IA por el bien de la sociedad

La IA tiene el potencial de revolucionar la forma en que vivimos, trabajamos y socializamos. Pero a medida que continuamos desarrollando y confiando en los sistemas de inteligencia artificial, es crucial que también abordemos el potencial de sesgo. Debemos reconocer que la verdadera preocupación no es la IA en sí misma, sino el sesgo de quienes la desarrollan y entrenan.


Al ser conscientes de este problema y tomar medidas para mitigarlo, podemos asegurarnos de que el futuro de la IA beneficie a todos.


El objetivo debe ser el desarrollo de la IA por el bien de la sociedad. Tal objetivo requerirá la responsabilidad colectiva de los gobiernos, desarrolladores y usuarios. Los gobiernos deben hacer cumplir las regulaciones que garanticen que los sistemas de IA se desarrollen de manera socialmente responsable.


Los desarrolladores deben evitar el sesgo al adoptar la diversidad, la transparencia y la responsabilidad. Deben evaluar y monitorear periódicamente el rendimiento de los sistemas de IA para evitar sesgos y abusos no deseados.


El público también debe entender que es responsable de cómo usa la IA. Todos deben desalentar el uso socialmente irresponsable de la IA.