KI: Gefahr oder Chance?
Algorithmen beschreiben die Gefahren von AI erstaunlich ähnlich. Beispiele am 11.07.2025:
- Perplexity AI: „… These dangers highlight the urgent need for robust risk management, ethical guidelines, and regulatory oversight to ensure AI is developed and used responsibly ..“
- Deep Seek: „… AI is not inherently evil, but it is a force multiplier—it can amplify both good and bad intentions. Without proper safeguards, AI could become extremely dangerous, especially as it grows more advanced. ..)
Auch andere AI-Programme (Claude, OpenAI) erwähnen (und relativieren) die Gefahr, dass einige wenige AI benutzen können, um effektiver über andere zu herrschen.
Einige der AI-Entwickler (Daniel Kokotajlo et al., 2025) beschreiben diese Trends (AI-stützt) sogar noch wesentlich radikaler:
„We predict that the impact of superhuman AI over the next decade will be enormous, exceeding that of the Industrial Revolution.“
Erstaunlicherweise vergessen sie, dass parallel zum Trend der Maschinenentwicklung viele Menschen ihre Fähigkeiten zu kreativer Intelligenz, sozialer Beziehung und Bewegungskompetenz verlieren könnten.
Intelligenz erscheint ihnen als Denken, im Sinne von Datenverarbeitung. Tatsächlich ist aber menschliche Intelligenz verkörpert, und das Gehirn nur ein Teil komplexer Beziehungs-, Kommunikations- und Bewegungsfunktionen.
AI und AI-Forscher scheint es bisher entgangen zu sein, dass Menschen vielleicht das eigentlich menschentypische wiederentdecken und entwickeln könnten. Also das, wozu tote Maschinen definitiv nicht in der Lage sind. …
