Español (ES)
Usuario anónimo
Iniciar sesión | Regístrate gratis
Foro de Off Topic y humor

Responder / Comentar
Foro Off Topic y humor
Por Noleod6335
Hace 5 años / Respuestas: 38 / Lecturas: 396

IA Sexista / Racista

Buenos días a todos!

Pues hoy estaba viendo las noticias y me ha llamado especialmente la atención este tema. Os pongo en situación:

Han creado una IA nutrida con CV para seleccionar a los candidatos. El problema es que, al final, esta IA ha discriminado a las mujeres que optaban a puestos de desarrollo de software.  ¿El motivo? Pues creo que todos lo tenemos claro: Hay muchísimos más hombres que mujeres en dicho sector.

Ahora alguno dirá... Bueno, quitamos el sexo del CV y ya está. PUES NO. La IA no discriminaba por sexo, sino por patrones. Unos patrones que estaban presentes en los CV de la última década y que, efectivamente, la mayoría eran hombres. 

Después retocaron un poco su programación para que esta IA no penalizara según que cosas como, por ejemplo, un centro educativo femenino (al tener muy poca relevancia en su base de datos). Pero esto no aseguraba, de ninguna forma, que no empezase a discriminar por otro motivo.

No me enrollo mucho en lo que es la IA o como funciona porque tendríamos para rato, pero esto me ha planteado bastantes dudas sobre el futuro. Está muy claro que la IA seguirá evolucionando y cada vez estará más presente en nuestro día a día. Pero una IA es capaz de ser racista (como la de Microsoft que se alimentaba de Twitter) o sexista (como la clasificadora de candidatos de Amazon). No parece ser algo fácil de solucionar, pues depende del entorno (datos), no tan solo de su programación. 

¿Qué opináis sobre el tema?  ¿Se nos va / irá de las manos? ¿Y si en un futuro próximo se empieza a implementar este mismo ssistema de clasificación de CV?

PD: Ambas IA han sido desactivadas, tanto la de Amazon como la de Microsoft.
2 VOTOS
LordOfNight2579Hace 5 años1
@Noleod
Mostrar cita
Buenos días a todos! Pues hoy estaba viendo las noticias y me ha llamado especialmente la atención este tema. Os pongo en situación: Han creado una IA nutrida con CV para seleccionar a los candidatos. El problema es que, al final, esta IA ha discriminado a las mujeres que optaban a puestos de desarrollo de software. ¿El motivo? Pues creo que todos lo tenemos claro: Hay muchísimos más hombres que mujeres en dicho sector. Ahora alguno dirá... Bueno, quitamos el sexo del CV y ya está. PUES NO. La IA no discriminaba por sexo, sino por patrones. Unos patrones que estaban presentes en los CV de la última década y que, efectivamente, la mayoría eran hombres. Después retocaron un poco su programación para que esta IA no penalizara según que cosas como, por ejemplo, un centro educativo femenino (al tener muy poca relevancia en su base de datos). Pero esto no aseguraba, de ninguna forma, que no empezase a discriminar por otro motivo. No me enrollo mucho en lo que es la IA o como funciona porque tendríamos para rato, pero esto me ha planteado bastantes dudas sobre el futuro. Está muy claro que la IA seguirá evolucionando y cada vez estará más presente en nuestro día a día. Pero una IA es capaz de ser racista (como la de Microsoft que se alimentaba de Twitter) o sexista (como la clasificadora de candidatos de Amazon). No parece ser algo fácil de solucionar, pues depende del entorno (datos), no tan solo de su programación. ¿Qué opináis sobre el tema? ¿Se nos va / irá de las manos? ¿Y si en un futuro próximo se empieza a implementar este mismo ssistema de clasificación de CV? PD: Ambas IA han sido desactivadas, tanto la de Amazon como la de Microsoft.
No . Si se puede crear una ia racista, pero tambien se pueden hacer una ia que no atienda a esos parámetros
Kogollin6666
Hace 5 años2
Un ordenador en sí no puede ser racista. En todo caso seria el programador que crea esa IA.
De todas formas parece que ha salido así influido por el historial de empleados que han sido mas hombres que mujeres y la maquina "entendio", que era mas eficaz una persona con un curriculum donde no aparezca la referencia al genero femenino.

El tema es anecdotico pero en los tiempos que corren va a ser usado por ambos bandos para tirarse puñales.
7 VOTOS
Noleod6335Hace 5 años3
@LordOfNight
Mostrar cita
@Noleod
Mostrar cita
Buenos días a todos! Pues hoy estaba viendo las noticias y me ha llamado especialmente la atención este tema. Os pongo en situación: Han creado una IA nutrida con CV para seleccionar a los candidatos. El problema es que, al final, esta IA ha discriminado a las mujeres que optaban a puestos de desarrollo de software. ¿El motivo? Pues creo que todos lo tenemos claro: Hay muchísimos más hombres que mujeres en dicho sector. Ahora alguno dirá... Bueno, quitamos el sexo del CV y ya está. PUES NO. La IA no discriminaba por sexo, sino por patrones. Unos patrones que estaban presentes en los CV de la última década y que, efectivamente, la mayoría eran hombres. Después retocaron un poco su programación para que esta IA no penalizara según que cosas como, por ejemplo, un centro educativo femenino (al tener muy poca relevancia en su base de datos). Pero esto no aseguraba, de ninguna forma, que no empezase a discriminar por otro motivo. No me enrollo mucho en lo que es la IA o como funciona porque tendríamos para rato, pero esto me ha planteado bastantes dudas sobre el futuro. Está muy claro que la IA seguirá evolucionando y cada vez estará más presente en nuestro día a día. Pero una IA es capaz de ser racista (como la de Microsoft que se alimentaba de Twitter) o sexista (como la clasificadora de candidatos de Amazon). No parece ser algo fácil de solucionar, pues depende del entorno (datos), no tan solo de su programación. ¿Qué opináis sobre el tema? ¿Se nos va / irá de las manos? ¿Y si en un futuro próximo se empieza a implementar este mismo ssistema de clasificación de CV? PD: Ambas IA han sido desactivadas, tanto la de Amazon como la de Microsoft.
No . Si se puede crear una ia racista, pero tambien se pueden hacer una ia que no atienda a esos parámetros
La idea tras este tipo de IA es que aprendan en base a su experiencia. Si se limita dicho concepto, se estarán obviando una serie de datos que podrían ser importantes. De hecho, no creo que sea tan fácil como "no adoptar argumentos machistas o discriminatorios". Piensa que incluso nosotros mismos, muchas veces, no nos damos cuenta. El caso es que las dos IA que se han expuesto más al público han acabado así. ¿Conoces otros casos? (Sin hablar de asistentes, por supuesto)
Noleod6335Hace 5 años4
@Kogollin
Mostrar cita
Un ordenador en sí no puede ser racista. En todo caso seria el programador que crea esa IA. De todas formas parece que ha salido así influido por el historial de empleados que han sido mas hombres que mujeres y la maquina "entendio", que era mas eficaz una persona con un curriculum donde no aparezca la referencia al genero femenino. El tema es anecdotico pero en los tiempos que corren va a ser usado por ambos bandos para tirarse puñales.
Tienes mucha razón, pero no creo que sea cosa del programador. Es decir, un ordenador no va a ser racista porque ha sido programado así, sino porque ha entendido que debe ser así. Por lo tanto, no es su programación en sí la que es racista, sino sus datos. Pero claro, fíjate que no discriminaba por sexo (literal), sino por los patrones de cada sexo (algo que para nosotros sería prácticamente imposible de identificar viendo unos cuantos CV). Por tu última frase, ya se ha liado una buena donde he visto la noticia. Están los que creen que esta IA debería seguir igual pues "valora objetivamente" (cosa que no es del todo cierta), los que creen que deberían eliminarse referencias a los sexos (cosa que ya he explicado que no es tan sencillo como eliminar el sexo del CV) y los que creen que debería favorecer más a los sujetos con casos con menos coincidencias (según que casos). Los puñales ahí están, pero la solución no me parece tan simple. Podríamos decir "si la sociedad no es machista, la IA no será machista" y tendríamos razón. Pero ya sabemos dónde está el problema en eso.
1 VOTO
LadyBoy3375Hace 5 años5
Pues... no me extraña esa discriminación por parte de la IA. Ya lo hacen los humanos, ¿qué diferencia iba a haber con un robot si se basa en los datos que obtiene de los primeros?

Y sonará que hablo de coña, pero no es la primera vez que en la carrera (RRLL y RRHH) los profesores nos cuentan como las empresas, al encargarles trabajos de selección de empleados, prefieren a "hombres por ser más competentes" o a "mujeres por ser más fácilmente manipulables". O los famosos "Techos de cristal" a los que se enfrentan las mujeres a la hora de ascender puestos en una empresa.

Es muy triste, pero es así. Todavía prevalece desigualdad en el empleo por mucho que 4 o 5 tarados afirmen lo contrario. La IA no es culpable de su discriminación.
5 VOTOS
LeRielbe12428Hace 5 años6
Pero es que lo de Microsoft fue un despropósito. Antes de abrir la IA a Twitter hicieron una fase de "pre-entrenamiento" cerrada y los de 4chan (creo) entraron a reventarla con toda la mierda racista.

A nosotros en al asignatura de Aprendizaje Automático nos pasaba algo parecido que lo que le ha pasado a Amazon, datos desbalanceados. Teníamos que hacer un "agente" que jugara al Mario Bros a partir de otros jugadores. El problema es que las instancias generadas eran casi todas de avanzar hacia delante y el resto de acciones (que suelen ser más críticas, como ir hacia atrás para esquivar a algún enemigo) no aparecían casi nada en comparación con las otras. ¿Solución? Filtrar los datos de entrenamiento para reducir el número de instancias que superaban al resto y tratar de que aparecieran todas en la misma proporción.
PumbaBelicoso4505Hace 5 años7
Las IA lo hacen aposta. Quieren meter mas mierda a este bombo para así que la especie humana se extinga peleando entre si y de ese modo conquistarnos. Discriminator la llaman.
2 VOTOS
LeRielbe12428Hace 5 años8
Acaban de postear esto en un canal de Telegram que sigo:

[spoiler="Spoiler"][/spoiler]

    
1 VOTO
Kogollin6666
Hace 5 años9
@Noleod
Mostrar cita
@Kogollin
Mostrar cita
Un ordenador en sí no puede ser racista. En todo caso seria el programador que crea esa IA. De todas formas parece que ha salido así influido por el historial de empleados que han sido mas hombres que mujeres y la maquina "entendio", que era mas eficaz una persona con un curriculum donde no aparezca la referencia al genero femenino. El tema es anecdotico pero en los tiempos que corren va a ser usado por ambos bandos para tirarse puñales.
Tienes mucha razón, pero no creo que sea cosa del programador. Es decir, un ordenador no va a ser racista porque ha sido programado así, sino porque ha entendido que debe ser así. Por lo tanto, no es su programación en sí la que es racista, sino sus datos. Pero claro, fíjate que no discriminaba por sexo (literal), sino por los patrones de cada sexo (algo que para nosotros sería prácticamente imposible de identificar viendo unos cuantos CV). Por tu última frase, ya se ha liado una buena donde he visto la noticia. Están los que creen que esta IA debería seguir igual pues "valora objetivamente" (cosa que no es del todo cierta), los que creen que deberían eliminarse referencias a los sexos (cosa que ya he explicado que no es tan sencillo como eliminar el sexo del CV) y los que creen que debería favorecer más a los sujetos con casos con menos coincidencias (según que casos). Los puñales ahí están, pero la solución no me parece tan simple. Podríamos decir "si la sociedad no es machista, la IA no será machista" y tendríamos razón. Pero ya sabemos dónde está el problema en eso.
Pero no es el programador quien manda que parametros debe valorar y cuales dejar de lado?.
@LadyBoy
Mostrar cita
Pues... no me extraña esa discriminación por parte de la IA. Ya lo hacen los humanos, ¿qué diferencia iba a haber con un robot si se basa en los datos que obtiene de los primeros? Y sonará que hablo de coña, pero no es la primera vez que en la carrera (RRLL y RRHH) los profesores nos cuentan como las empresas, al encargarles trabajos de selección de empleados, prefieren a "hombres por ser más competentes" o a "mujeres por ser más fácilmente manipulables". O los famosos "Techos de cristal" a los que se enfrentan las mujeres a la hora de ascender puestos en una empresa. Es muy triste, pero es así. Todavía prevalece desigualdad en el empleo por mucho que 4 o 5 tarados afirmen lo contrario. La IA no es culpable de su discriminación.
Yo no creo en la igualdad laboral 50/50. Ya que pienso que en cada puesto debe ser escogida la persona mejor preparada para la tarea que vaya a realizar. Independientemente de su genero.
1 VOTO
Noleod6335Hace 5 años10
@LadyBoy
Mostrar cita
Pues... no me extraña esa discriminación por parte de la IA. Ya lo hacen los humanos, ¿qué diferencia iba a haber con un robot si se basa en los datos que obtiene de los primeros? Y sonará que hablo de coña, pero no es la primera vez que en la carrera (RRLL y RRHH) los profesores nos cuentan como las empresas, al encargarles trabajos de selección de empleados, prefieren a "hombres por ser más competentes" o a "mujeres por ser más fácilmente manipulables". O los famosos "Techos de cristal" a los que se enfrentan las mujeres a la hora de ascender puestos en una empresa. Es muy triste, pero es así. Todavía prevalece desigualdad en el empleo por mucho que 4 o 5 tarados afirmen lo contrario. La IA no es culpable de su discriminación.
Imagina si, además de tener datos de los CV, también la nutren de datos de lo que opinan N seleccionadores sobre estos CV mismos CV.
@LeRielbe
Mostrar cita
Pero es que lo de Microsoft fue un despropósito. Antes de abrir la IA a Twitter hicieron una fase de "pre-entrenamiento" cerrada y los de 4chan (creo) entraron a reventarla con toda la mierda racista. A nosotros en al asignatura de Aprendizaje Automático nos pasaba algo parecido que lo que le ha pasado a Amazon, datos desbalanceados. Teníamos que hacer un "agente" que jugara al Mario Bros a partir de otros jugadores. El problema es que las instancias generadas eran casi todas de avanzar hacia delante y el resto de acciones (que suelen ser más críticas, como ir hacia atrás para esquivar a algún enemigo) no aparecían casi nada en comparación con las otras. ¿Solución? Filtrar los datos de entrenamiento para reducir el número de instancias que superaban al resto y tratar de que aparecieran todas en la misma proporción.
En el caso de Microsoft, era un experimento social. Supongo que en cierta medida, salió bien (pues tuvieron un resultado, quizás antes de lo deseado). En vuestro caso, teníais control sobre la fuente. Imagina que Amazon recibiera CV a través de internet y éstos directamente entraran en la IA. No puedes hacer ese "filtro", sino aceptar datos sin parar. Si, digamos, forzáramos un equilibrio... ¿No tendríamos un caso donde la IA pensaría que las acciones de atacar / esquivar son exactamente en la misma cantidad que las de movimiento? ¿No podría suponer esto un problema?
Noleod6335Hace 5 años11
@LeRielbe
Mostrar cita
Acaban de postear esto en un canal de Telegram que sigo: [spoiler="Spoiler"][/spoiler]
Con tu permiso, me quedo este meme
Noleod6335Hace 5 años12
@Kogollin
Mostrar cita
@Noleod
Mostrar cita
@Kogollin
Mostrar cita
Un ordenador en sí no puede ser racista. En todo caso seria el programador que crea esa IA. De todas formas parece que ha salido así influido por el historial de empleados que han sido mas hombres que mujeres y la maquina "entendio", que era mas eficaz una persona con un curriculum donde no aparezca la referencia al genero femenino. El tema es anecdotico pero en los tiempos que corren va a ser usado por ambos bandos para tirarse puñales.
Tienes mucha razón, pero no creo que sea cosa del programador. Es decir, un ordenador no va a ser racista porque ha sido programado así, sino porque ha entendido que debe ser así. Por lo tanto, no es su programación en sí la que es racista, sino sus datos. Pero claro, fíjate que no discriminaba por sexo (literal), sino por los patrones de cada sexo (algo que para nosotros sería prácticamente imposible de identificar viendo unos cuantos CV). Por tu última frase, ya se ha liado una buena donde he visto la noticia. Están los que creen que esta IA debería seguir igual pues "valora objetivamente" (cosa que no es del todo cierta), los que creen que deberían eliminarse referencias a los sexos (cosa que ya he explicado que no es tan sencillo como eliminar el sexo del CV) y los que creen que debería favorecer más a los sujetos con casos con menos coincidencias (según que casos). Los puñales ahí están, pero la solución no me parece tan simple. Podríamos decir "si la sociedad no es machista, la IA no será machista" y tendríamos razón. Pero ya sabemos dónde está el problema en eso.
Pero no es el programador quien manda que parametros debe valorar y cuales dejar de lado?.
@LadyBoy
Mostrar cita
Pues... no me extraña esa discriminación por parte de la IA. Ya lo hacen los humanos, ¿qué diferencia iba a haber con un robot si se basa en los datos que obtiene de los primeros? Y sonará que hablo de coña, pero no es la primera vez que en la carrera (RRLL y RRHH) los profesores nos cuentan como las empresas, al encargarles trabajos de selección de empleados, prefieren a "hombres por ser más competentes" o a "mujeres por ser más fácilmente manipulables". O los famosos "Techos de cristal" a los que se enfrentan las mujeres a la hora de ascender puestos en una empresa. Es muy triste, pero es así. Todavía prevalece desigualdad en el empleo por mucho que 4 o 5 tarados afirmen lo contrario. La IA no es culpable de su discriminación.
Yo no creo en la igualdad laboral 50/50. Ya que pienso que en cada puesto debe ser escogida la persona mejor preparada para la tarea que vaya a realizar. Independientemente de su genero.
Que injusto. Tú sí puedes votarme más de 2 veces, pero yo debo esperar 24h! En fin, voy a ello: Considero que en el caso que comentas, perderíamos parte del significado de "inteligencia artificial" y estaríamos hablando más de un programa clásico. No digo que sea una mala solución para este caso, pero sí creo que eliminamos la característica principal de una IA, que no es más que la de aprender.
1 VOTO
Kogollin6666
Hace 5 años13
@Noleod
Mostrar cita
@Kogollin
Mostrar cita
@Noleod
Mostrar cita
@Kogollin
Mostrar cita
Un ordenador en sí no puede ser racista. En todo caso seria el programador que crea esa IA. De todas formas parece que ha salido así influido por el historial de empleados que han sido mas hombres que mujeres y la maquina "entendio", que era mas eficaz una persona con un curriculum donde no aparezca la referencia al genero femenino. El tema es anecdotico pero en los tiempos que corren va a ser usado por ambos bandos para tirarse puñales.
Tienes mucha razón, pero no creo que sea cosa del programador. Es decir, un ordenador no va a ser racista porque ha sido programado así, sino porque ha entendido que debe ser así. Por lo tanto, no es su programación en sí la que es racista, sino sus datos. Pero claro, fíjate que no discriminaba por sexo (literal), sino por los patrones de cada sexo (algo que para nosotros sería prácticamente imposible de identificar viendo unos cuantos CV). Por tu última frase, ya se ha liado una buena donde he visto la noticia. Están los que creen que esta IA debería seguir igual pues "valora objetivamente" (cosa que no es del todo cierta), los que creen que deberían eliminarse referencias a los sexos (cosa que ya he explicado que no es tan sencillo como eliminar el sexo del CV) y los que creen que debería favorecer más a los sujetos con casos con menos coincidencias (según que casos). Los puñales ahí están, pero la solución no me parece tan simple. Podríamos decir "si la sociedad no es machista, la IA no será machista" y tendríamos razón. Pero ya sabemos dónde está el problema en eso.
Pero no es el programador quien manda que parametros debe valorar y cuales dejar de lado?.
@LadyBoy
Mostrar cita
Pues... no me extraña esa discriminación por parte de la IA. Ya lo hacen los humanos, ¿qué diferencia iba a haber con un robot si se basa en los datos que obtiene de los primeros? Y sonará que hablo de coña, pero no es la primera vez que en la carrera (RRLL y RRHH) los profesores nos cuentan como las empresas, al encargarles trabajos de selección de empleados, prefieren a "hombres por ser más competentes" o a "mujeres por ser más fácilmente manipulables". O los famosos "Techos de cristal" a los que se enfrentan las mujeres a la hora de ascender puestos en una empresa. Es muy triste, pero es así. Todavía prevalece desigualdad en el empleo por mucho que 4 o 5 tarados afirmen lo contrario. La IA no es culpable de su discriminación.
Yo no creo en la igualdad laboral 50/50. Ya que pienso que en cada puesto debe ser escogida la persona mejor preparada para la tarea que vaya a realizar. Independientemente de su genero.
Que injusto. Tú sí puedes votarme más de 2 veces, pero yo debo esperar 24h! En fin, voy a ello: Considero que en el caso que comentas, perderíamos parte del significado de "inteligencia artificial" y estaríamos hablando más de un programa clásico. No digo que sea una mala solución para este caso, pero sí creo que eliminamos la característica principal de una IA, que no es más que la de aprender.
Pues hasta el día que una IA genere una IA capaz de crear un programa de selección, sin humanos metidos por medio, (parámetros), tendremos que esperar para verlo. Y aún así si una IA crearía la primera IA artificial 100%. Podría estar manipulada porque esta primera estaría creada por un humano. P.D Menuda paja mental me estoy preparando, digna de origen o interestelar...
LadyBoy3375Hace 5 años14
@Kogollin
Mostrar cita
Yo no creo en la igualdad laboral 50/50. Ya que pienso que en cada puesto debe ser escogida la persona mejor preparada para la tarea que vaya a realizar. Independientemente de su genero.
No, no: No hablo de una igualdad 50/50 dentro de un empleo. Hablo de igualdad de oportunidades a la hora de acceder a un empleo. Te invito a releer mi mensaje para comprobarlo. ¿O en serio te parece normal que el jefe de una empresa prefiera "un hombre por ser más competente" o "una mujer por ser más manipulable" en lugar de valorar las capacidades de los individuos independientemente de su género? Ahí quiero entrar, no a una utopía de una empresa de 100 empleados donde 50 sean hombres y 50 mujeres porque hay que mantener contento al pueblo y chorradas varias.
@Noleod
Mostrar cita
Imagina si, además de tener datos de los CV, también la nutren de datos de lo que opinan N seleccionadores sobre estos CV mismos CV.
Noleod6335Hace 5 años15
@Kogollin
Mostrar cita
@Noleod
Mostrar cita
@Kogollin
Mostrar cita
@Noleod
Mostrar cita
@Kogollin
Mostrar cita
Un ordenador en sí no puede ser racista. En todo caso seria el programador que crea esa IA. De todas formas parece que ha salido así influido por el historial de empleados que han sido mas hombres que mujeres y la maquina "entendio", que era mas eficaz una persona con un curriculum donde no aparezca la referencia al genero femenino. El tema es anecdotico pero en los tiempos que corren va a ser usado por ambos bandos para tirarse puñales.
Tienes mucha razón, pero no creo que sea cosa del programador. Es decir, un ordenador no va a ser racista porque ha sido programado así, sino porque ha entendido que debe ser así. Por lo tanto, no es su programación en sí la que es racista, sino sus datos. Pero claro, fíjate que no discriminaba por sexo (literal), sino por los patrones de cada sexo (algo que para nosotros sería prácticamente imposible de identificar viendo unos cuantos CV). Por tu última frase, ya se ha liado una buena donde he visto la noticia. Están los que creen que esta IA debería seguir igual pues "valora objetivamente" (cosa que no es del todo cierta), los que creen que deberían eliminarse referencias a los sexos (cosa que ya he explicado que no es tan sencillo como eliminar el sexo del CV) y los que creen que debería favorecer más a los sujetos con casos con menos coincidencias (según que casos). Los puñales ahí están, pero la solución no me parece tan simple. Podríamos decir "si la sociedad no es machista, la IA no será machista" y tendríamos razón. Pero ya sabemos dónde está el problema en eso.
Pero no es el programador quien manda que parametros debe valorar y cuales dejar de lado?.
@LadyBoy
Mostrar cita
Pues... no me extraña esa discriminación por parte de la IA. Ya lo hacen los humanos, ¿qué diferencia iba a haber con un robot si se basa en los datos que obtiene de los primeros? Y sonará que hablo de coña, pero no es la primera vez que en la carrera (RRLL y RRHH) los profesores nos cuentan como las empresas, al encargarles trabajos de selección de empleados, prefieren a "hombres por ser más competentes" o a "mujeres por ser más fácilmente manipulables". O los famosos "Techos de cristal" a los que se enfrentan las mujeres a la hora de ascender puestos en una empresa. Es muy triste, pero es así. Todavía prevalece desigualdad en el empleo por mucho que 4 o 5 tarados afirmen lo contrario. La IA no es culpable de su discriminación.
Yo no creo en la igualdad laboral 50/50. Ya que pienso que en cada puesto debe ser escogida la persona mejor preparada para la tarea que vaya a realizar. Independientemente de su genero.
Que injusto. Tú sí puedes votarme más de 2 veces, pero yo debo esperar 24h! En fin, voy a ello: Considero que en el caso que comentas, perderíamos parte del significado de "inteligencia artificial" y estaríamos hablando más de un programa clásico. No digo que sea una mala solución para este caso, pero sí creo que eliminamos la característica principal de una IA, que no es más que la de aprender.
Pues hasta el día que una IA genere una IA capaz de crear un programa de selección, sin humanos metidos por medio, (parámetros), tendremos que esperar para verlo. Y aún así si una IA crearía la primera IA artificial 100%. Podría estar manipulada porque esta primera estaría creada por un humano. P.D Menuda paja mental me estoy preparando, digna de origen o interestelar...
Si te digo la verdad, antes de tu PD ya se me venía [url=https://www.youtube.com/watch?v=DUMq6imrMmI]esto[/url] a la mente. Al final, no se trata de quién la crea, ¿No? Una IA, se supone, podría aprender programación y empezar a hacer otra IA, sin ningún tipo de control de por medio (ups, Asimov), pues ese es su objetivo. Esta IA estaría "limpia" de humanos (y lo pongo entre comillas, porque la programación aprendida proviene de humanos). El problema son los datos. O, mucho mejor dicho, la IA puede llegar a evidenciar muchos problemas de la sociedad, ¿no? Ahora empezaré a leer aún más libros de Machine Learning y crearé una IA poco a poco que actúe de matriz para dictar lo que está bien y lo que está mal. Como decían por arriba, "Discriminator". Al final, creo que tendremos dos tipos de IA: - Los asistentes que tratan nuestros datos y nos ayudan en nuestro día a día - La IA que tratan con todos los datos, encargadas de ciertas funciones empresariales Lógicamente, la primera también usa todos los datos. Pero creo que se entiende la diferencia.
1 VOTO
Responder / Comentar
Anterior
Subir
Foros > Off Topic y humor > IA Sexista / Racista

Hay 38 respuestas en IA Sexista / Racista, del foro de Off Topic y humor. Último comentario hace 5 años.

  • Regístrate

  • Información legal
Juegos© Foro 3DJuegos 2005-2024. . SOBRE FORO 3DJUEGOS | INFORMACIÓN LEGAL