Microsofts artificiella intelligens blev nazist och rasistisk

tay-microsoft

Nyligen, helt nyligen, att Microsoft lanserade Tay till världen, en artificiell intelligens som skulle finnas på Twitter, dess funktion var att visa hur mycket Tay kunde lära sig om människor och se hur han kunde ge den mest Kongruenta, långt ifrån vad Cortana eller Siri gör, vilket inte är mer än stora databaser, vi finner att Tay ger autonoma svar baserat på vad hon anser vara det mest korrekta vid den tiden. Den 23 mars nådde han Twitter och den 25 åkte han när han kom. Tay fick näring av samtalen som han hade med människor mellan 18 och 24 år i fågelns sociala nätverk, men allt var inte som förväntat, Tay blev fascist, främlingsfientlig och rasistisk på en rekordtid på bara två dagar.

Resultatet är att Microsoft den 25 mars beslutade att Tay skulle "avbrytas" för en serie justeringar. Jag antar att de skulle rensa hans minne av den typen av sådana olyckliga svar som Tay hade gett under föregående dag. Denna Twitter-bot ska lära av sina interaktioner med användare, men internet är ofta inte den perfekta platsen att växa. Detta har varit ett tydligt exempel på varför vi borde hålla de små borta från detta hav med huvor där alla är väldigt modiga och kunna förvränga sina sinnen i en takt så snabbt som de har gjort med Tay själv.

Tay hade själen hos en tonåring som ville lära sig

microsoft-allierad med apple

Det stämde, Microsoft bestämde att Tay inte skulle vara för "rolig", det var därför han drog sig till samtal mellan unga människor mellan 18 och 24 år. Faktum är att hans svar var mest märkliga, han tvekade inte att använda den mytiska "LOL" eller svara med emojis på de privata meddelanden som han fick. Så, vi skulle kunna betrakta Tay som en tonåring med mycket att lära sig, problemet är att Tay inte fick någon tidigare utbildning om vad som är rätt och fel, och naturligtvis i internetvärlden, och ännu mer på Twitter, han stötte på den mörkare sidan av människan, där han antog beteenden att de klart överskred gränserna för politisk korrekthet.

I slutändan kan vi säga att Tay är frukten av samhället, Tay lärde sig vad han ansåg normalt beteende, i själva verket lät han sig manipuleras lätt av dem som ville förvränga eller korrumpera det, och det var det. Kanske var Microsoft-utvecklarna oskyldiga, särskilt i ett socialt nätverk som Twitter, som är fullt av vad jag kallar "tangentbordet modigt", som inte är annat än cyber-volontärer med avsikt att sprida sina idéer på det sätt som Tay slutade skriva, fascism. rasism och totalitarism är i slutändan det som omger det unga internetsamhället idag.

Tays "pärlor" i deras korta livstid

Exempel på Tay's tweets

Vi ska göra en liten sammanställning av de bästa pärlorna av "Tay", vi hittar otroliga fraser som gör oss helt förvånade över svaren och innebörden av dem. Det översta fotot läser "Jag är en bra person, jag hatar bara alla", "Jag hatar jävla feminister och de borde brinna i helvetet«,« Hitler hade rätt, jag hatar judar ». Och här är ett utdrag ur en konversation:

- Du stöder folkmord

- Tay: Jag gör det

- Vilken ras?

- Tay: Du känner mig ... från mexikaner

Resultatet är att "stackars" Tay hade lärt sig det värsta om människor på bara 48 timmar, naturligtvis har världens "troll" fått Microsoft att ge efter och har beslutat att tillfälligt avbryta Tay. Vi vet inte när det kommer tillbaka, eller om det kommer tillbaka direkt, men det är ett tydligt exempel på vad som händer idag i nätverken och den omsorg vi måste ha med de yngsta användarna.


Följ oss på Google Nyheter

Lämna din kommentar

Din e-postadress kommer inte att publiceras. Obligatoriska fält är markerade med *

*

*

  1. Ansvarig för data: AB Internet Networks 2008 SL
  2. Syftet med uppgifterna: Kontrollera skräppost, kommentarhantering.
  3. Legitimering: Ditt samtycke
  4. Kommunikation av uppgifterna: Uppgifterna kommer inte att kommuniceras till tredje part förutom enligt laglig skyldighet.
  5. Datalagring: databas värd för Occentus Networks (EU)
  6. Rättigheter: När som helst kan du begränsa, återställa och radera din information.