Tay, intelligence artificielle, a été "débranchée" : elle était devenue raciste en moins de 24H

Venez parler des sujets en rapport avec l'informatique et les nouvelles technologies
phoenix72
Messages : 3321
Enregistré le : 10 juin 2011, 00:00:00

Re: Tay, intelligence artificielle, a été "débranchée" : elle était devenue raciste en moins de 24H

Message non lu par phoenix72 » 29 mars 2016, 16:28:49

Dommage qu'ils ont oublié une auto-censure dans le petit robot ,le pauvre il est puni parce que l'humain à démontré son coté malsain et pervers qu'il cache derrière internet .

Avatar du membre
El Fredo
Messages : 26459
Enregistré le : 17 févr. 2010, 00:00:00
Parti Politique : En Marche (EM)
Localisation : Roazhon
Contact :

Re: Tay, intelligence artificielle, a été "débranchée" : elle était devenue raciste en moins de 24H

Message non lu par El Fredo » 29 mars 2016, 16:38:10

Au contraire cette expérience est très utile pour comprendre les mécanismes d'acquisition du langage et des idées. Introduire des sécurités c'est la meilleure façon de fausser l'expérience car ça revient à pré-programmer des mécanismes innés qui ne sont que les reflets de la vision du monde qu'ont ses concepteurs.
If the radiance of a thousand suns were to burst into the sky, that would be like the splendor of the Mighty One— I am become Death, the shatterer of Worlds.

Avatar du membre
Clavier56
Messages : 1732
Enregistré le : 18 oct. 2014, 09:41:52
Parti Politique : Front National (FN)
Localisation : Vannes

Re: Tay, intelligence artificielle, a été "débranchée" : elle était devenue raciste en moins de 24H

Message non lu par Clavier56 » 29 mars 2016, 16:41:29

ça fait peur ....je me demande si je dois continuer à fréquenter les forums politiques du net...! :vieux:
La liberté d'opinion, ce n'est bon que pour les morts ...
( E.Zemmour, philosophe français sur RTL )

Avatar du membre
Jeff Van Planet
Messages : 22119
Enregistré le : 08 juin 2013, 11:41:21

Re: Tay, intelligence artificielle, a été "débranchée" : elle était devenue raciste en moins de 24H

Message non lu par Jeff Van Planet » 29 mars 2016, 17:38:27

El Fredo » 29 Mar 2016, 16:38:10 a écrit :Au contraire cette expérience est très utile pour comprendre les mécanismes d'acquisition du langage et des idées. Introduire des sécurités c'est la meilleure façon de fausser l'expérience car ça revient à pré-programmer des mécanismes innés qui ne sont que les reflets de la vision du monde qu'ont ses concepteurs.
Nous tous avons grandis dans des milieux avec des tuteurs, des référents qui servait de modèle (que ce soit le père la mère, un frère une sœur ou un oncle une tante) parfois même ces "modèles" ont les a pris en grippe et avons fait exactement le contraire d'eux. Donc voici ma question: pourquoi priver l'IA d'une telle tutelle, d'exemples?
Le grand problème de notre système démocratique c'est qu'il permet de faire démocratiquement des choses non démocratiques.
J.Saramago

Avatar du membre
Nombrilist
Messages : 63371
Enregistré le : 08 févr. 2010, 00:00:00

Re: Tay, intelligence artificielle, a été "débranchée" : elle était devenue raciste en moins de 24H

Message non lu par Nombrilist » 29 mars 2016, 20:58:23

Une bonne expérience est une expérience sans biais.

Avatar du membre
Jeff Van Planet
Messages : 22119
Enregistré le : 08 juin 2013, 11:41:21

Re: Tay, intelligence artificielle, a été "débranchée" : elle était devenue raciste en moins de 24H

Message non lu par Jeff Van Planet » 30 mars 2016, 17:39:14

Au lieux d'en faire un seul bot, tu en fais "trois" un qui aurait des influences lute des classes, l'autre qui aurait des influences "white power" et l'autre qui aurait des influences "black panter" et tu les lâches pour voir comment ils évoluent.
Le grand problème de notre système démocratique c'est qu'il permet de faire démocratiquement des choses non démocratiques.
J.Saramago

Répondre

Retourner vers « Informatique et Nouvelles Technologies de l'Information et de la Communication »

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré