Néhány problémás, zavaros válasz miatt jelentős változások lépnek életbe.
Az elmúlt hetekben a felhasználók meglehetősen zavarba ejtő beszélgetésekről számoltak be akkor, amikor kapcsolatba léptek a Microsoft mesterséges intelligenciájával, a Bing chatbottal - írta meg az Unilad.
A chatbot például azt írta a Digital Trends vezető munkatársának, Jacob Roachnak, hogy arról álmodik, hogy emberré válik.
Egy másik tesztbeszélgetés során a szoftver az Associated Press riporterét, Matt O’Brient Adolf Hitlerhez hasonlította. Azt is leírta neki, hogy ő a
A New York Times egyik riporterét, Kevin Roose-t pedig arról próbálta meggyőzni a chatbot, hogy valójában nem is szereti a feleségét. Az pedig már csak hab a tortán, hogy "elmondása szerint" nukleáris rakéták kilövési kódjairól is álmodott a mesterséges chatbot. Ezt az üzenetet később törölte az AI.
És ha még ez nem lenne elég, a felhasználók többször is azt tapasztalták, hogy ha elég ideig beszélget valaki a mesterséges intelligenciával, szinte már egy új személyisége alakul ki a chatbotnak.
A Microsoft ezért aztán határozott lépésre szánta el magát: új szabályokat vezetett be a Bing chatbotjára:
- áll a Microsoft közleményében.
Egyszóval a jövőben kevésbé lesz életszerű a Microsoft saját chatbotja.