Superintelligenz kann eine existenzielle Gefahr sein

twc-online, Dienstag, 05.07.2016, 11:24 (vor 3520 Tagen) @ Ankawor2925 Views
bearbeitet von unbekannt, Dienstag, 05.07.2016, 11:34

...

In naher Zukunft werden Maschinen intelligenter sein als ihre Erbauer, und
sie werden wiederum Maschinen bauen, die noch intelligenter sind.

...

Wir wissen noch nicht, ob Menschen Maschinen erbauen können, die intelligenter sind als wir Menschen. Wenn wir es können, wissen wir nicht, wie intelligent solche Maschinen werden können (eher '10%' intelligenter als Menschen oder eher '1000 mal' so intelligent wie Menschen; eher in 1 Jahr oder eher in 1000 Jahren).
Wenn eine KI viel intelligenter ist als wir Menschen, sollten wir beten. Wenn sich diese KI nämlich überlegt, dass sie uns für ihre Ziele nicht braucht, werden die Menschen sehr schnell ausgestorben sein.

Superintelligenz, Artificial Superintelligence, ASI:
http://www.dasgelbeforum.net/forum_entry.php?id=373103

Existenzielle Gefahren:
http://www.dailymail.co.uk/sciencetech/article-2953478/12-ways-world-end-likely-causes-...


gesamter Thread:

RSS-Feed dieser Diskussion

Werbung

Wandere aus, solange es noch geht.