Mischa Brendel
Volop aandacht in de media voor het dodelijke ongeluk waaraan de automatische piloot van Tesla ten grondslag lag. MIT-website Technology Review haakt hierop in met een , waarbij een systeem zichzelf zaken aanleert en op die manier programmeert. Het probleem is echter dat, bijvoorbeeld na een ongeluk, deze programmering toch uitgelezen moet worden om eventuele fouten te achterhalen. En omdat de systemen vaak erg ingewikkeld en niet altijd (in onze ogen) logisch in elkaar zitten, zal dit soms niet kunnen.
Het artikel stipt hiermee een interessant potentieel probleem aan: wordt de programmatuur van machines op den duur niet zó ingewikkeld, dat we deze als mens zelf niet meer begrijpen?