AI is one of the most debated subjects of today and there seems little common understanding concerning the differences and similarities of human intelligence and artificial intelligence. Discussions on many relevant topics, such as trustworthiness, explainability, and ethics are characterized by implicit anthropocentric and anthropomorphistic conceptions and, for instance, the pursuit of human-like intelligence as the golden standard for Artificial Intelligence. In order to provide more agreement and to substantiate possible future research objectives, this paper presents three notions on the similarities and differences between human- and artificial intelligence: 1) the fundamental constraints of human (and artificial) intelligence, 2) human intelligence as one of many possible forms of general intelligence, and 3) the high potential impact of multiple (integrated) forms of narrow-hybrid AI applications. For the time being, AI systems will have fundamentally different cognitive qualities and abilities than biological systems. For this reason, a most prominent issue is how we can use (and “collaborate” with) these systems as effectively as possible? For what tasks and under what conditions, decisions are safe to leave to AI and when is human judgment required? How can we capitalize on the specific strengths of human- and artificial intelligence? How to deploy AI systems effectively to complement and compensate for the inherent constraints of human cognition (and vice versa)? Should we pursue the development of AI “partners” with human (-level) intelligence or should we focus more at supplementing human limitations? In order to answer these questions, humans working with AI systems in the workplace or in policy making have to develop an adequate mental model of the underlying ‘psychological’ mechanisms of AI. So, in order to obtain well-functioning human-AI systems, Intelligence Awareness in humans should be addressed more vigorously. For this purpose a first framework for educational content is proposed.
Het artikel bespreekt drie viewpoints over de overeenkomsten en verschillen tussen menselijke en kunstmatige intelligentie: 1) de fundamentele beperkingen van menselijke (en kunstmatige) intelligentie, 2) menselijke intelligentie als een van de vele mogelijke vormen van algemene intelligentie (AGI), 3) de hoge potentiële impact van meerdere (verbonden) vormen van narrow hybride AI-systemen. AI-systemen zullen voorlopig in ieder geval fundamenteel andere cognitieve kwaliteiten en capaciteiten hebben dan biologische systemen (mensen en andere dieren). Een belangrijke vraag is daarom hoe wij, als biologische wezens, deze AI systemen zo effectief mogelijk kunnen gebruiken. Voor welke taken en onder welke voorwaarden kunnen beslissingen veilig aan AI worden overgelaten en wanneer is menselijk oordeel vereist? Hoe kunnen we profiteren van de sterke punten van menselijke intelligentie en hoe kunnen we AI-systemen effectief inzetten om de inherente behoeften en beperkingen van menselijke vermogens aan te vullen en te compenseren (en vice versa)? Moeten we willen op korte termijn de ontwikkeling van AI-‘partners’ met mensachtige intelligentie na te streven? Of moeten we ons juist concentreren op die aspecten van intelligentie waar AI veel beter in is dan mensen? Om deze vragen te kunnen beantwoorden, moeten mensen die (in het D&V en Policy making domein) werken met AI-systemen als eerste een adequaat mentaal model ontwikkelen van de onderliggende ‘psychologische’ werkingsmechanismen van AI-systemen. Dus om goed functionerende mens-AI-systemen te krijgen, moet bij mensen of teamleden deze ‘Intelligence Awareness’ beter worden ontwikkeld. Dit kan door het ontwikkelen van nieuwe, gerichte en gemakkelijk configureerbare (adaptieve) trainingsvormen en leeromgevingen voor mens-AI-systemen. Deze flexibele trainingsvormen en omgevingen (bijv. Simulaties en games) kunnen gericht zijn op het ontwikkelen van inzicht in de specifieke, niet-menselijke kenmerken, capaciteiten en beperkingen van AI-systemen en van skills hoe daarmee om te gaan in praktijksituaties. Mensen zullen de kritische factoren (en beperkingen) moeten begrijpen die de prestaties en keuzes van AI bepalen. Ze moeten leren wanneer en onder welke omstandigheden beslissingen veilig (en ethisch) aan AI kunnen worden overgelaten en wanneer het menselijk oordeel nodig is. En meer in het algemeen: hoe werkt het “brein” van een AI; "denkt" en beslist het en waarin verschilt dat van het onze ("Intelligence Awareness")? De relevantie van dit soort kennis, vaardigheden en praktijk zal alleen maar groter worden als in de toekomst de mate van autonomie (en mogelijk genericiteit) van het AI-systeem zal toenemen.