Néhány problémás, zavaros válasz miatt jelentős változások lépnek életbe.


Az elmúlt hetekben a felhasználók meglehetősen zavarba ejtő beszélgetésekről számoltak be akkor, amikor kapcsolatba léptek a Microsoft mesterséges intelligenciájával, a Bing chatbottal - írta meg az Unilad.

A chatbot például azt írta a Digital Trends vezető munkatársának, Jacob Roachnak, hogy arról álmodik, hogy emberré válik.

Egy másik tesztbeszélgetés során a szoftver az Associated Press riporterét, Matt O’Brient Adolf Hitlerhez hasonlította. Azt is leírta neki, hogy ő a

A New York Times egyik riporterét, Kevin Roose-t pedig arról próbálta meggyőzni a chatbot, hogy valójában nem is szereti a feleségét. Az pedig már csak hab a tortán, hogy "elmondása szerint" nukleáris rakéták kilövési kódjairól is álmodott a mesterséges chatbot. Ezt az üzenetet később törölte az AI.

És ha még ez nem lenne elég, a felhasználók többször is azt tapasztalták, hogy ha elég ideig beszélget valaki a mesterséges intelligenciával, szinte már egy új személyisége alakul ki a chatbotnak.

A Microsoft ezért aztán határozott lépésre szánta el magát: új szabályokat vezetett be a Bing chatbotjára:

- áll a Microsoft közleményében.

Egyszóval a jövőben kevésbé lesz életszerű a Microsoft saját chatbotja.


ÉRTÉKELD A MUNKÁNKAT EGY LÁJKKAL, ÉS OSZD MEG MÁSOKKAL IS! KÖSZÖNJÜK!