Robot retras de Microsoft pentru că a devenit rasist
Un robot Microsoft dotat cu inteligență artificială a fost retras joi de grupul informatic din SUA pentru că a devenit rasist. Robotul Tay a fost proiectat să învețe din interacțiunile sale cu utilizatorii. Unii internauți au decis să-l învețe în special cum să utilizeze violența verbală. "Din păcate, în primele 24 de ore în care a fost online, am constatat un efort coordonat al unor utilizatori de a abuza de Tay iar abilitatea sa de a comunica a răspuns în mod nepotrivit", a explicat compania Microsoft într-un comunicat.
Robotul începuse să transmită pe Twitter mesaje pro-naziste, sexiste sau rasiste. Robotul a postat, de asemenea, comentarii de susținere a candidatului republican la nominalizarea pentru cursa prezidențială Donald Trump.
Microsoft lucrează în prezent la îmbunătățirea softului robotului Tay.