ich glaub nicht, dass er so bald eine seele bekommt. mal davon abgesehen, dass die auswahl an sätzen/antworten, die er von sich gibt, eher beschränkt ist. aber für altzheimer-patienten bringt er sicher die nötige geduld auf ...
Das mit der Seele sollten wir außen vor lassen.
Die Satzauswahl wird sich sicher noch erweitern. Ich erinnere mich an die ersten sprachgesteuerten Operationsmikroskope im Jahr 1988. Die konnten ungefähr 12 Wörter erkennen und zuordnen. (Wie z.B. "näher","weiter", "An", "Aus" usw.)
Heute haben wir Spracherkennungen, die sich durchaus zum Diktat eignen. Das Program "Eliza" hat schon vor 30 Jahren die Gesprächspartner fasziniert, obwohl der Algorithmus sehr einfach war. Weizenbaum wollte eigentlich zeigen, wie beschränkt eine AI ist, aber die Gesprächspartner waren noch beschränkter.
Ich wundere mich allerdings über die Skepsis des Eintrags. Kein Mensch (Außer mir !!! :) :) :) ) hat eine Ahnung, was in den nächsten zehn Jahren noch machbar sein wird.
auf geduld sollten diese maschinen programmiert sein.
ich glaube allerdings nicht an ihren sinnvollen einsatz bei demenzkranken.
denn ihnen fehlt es an seele und empathie (kann ich leider nicht außen vor lassen bei einem solchen einsatzgebiet).
die ist wohl auch aus dem eigenartigen gefühl entstanden, was ich da eigentlich tue, wenn ich mit so einem teil interagiere. anscheinend werde ich mit dem alter ein wenig weniger fortschrittsbegeistert. ich freu mich nämlich definitiv nicht darüber, was in den nächsten zehn jahren noch/schon machbar sein wird, dafür reicht mir schon meine begrenzte vorstellungskraft ...
eh brauchts da empathie. das oben war ironisch gemeint, weil ich schon glaube, dass es diese empathie ganz generell braucht und von einem roboter wohl eher nicht so toll aufgebracht wird. aber das teil wird als "health care"-produkt weiterentwickelt, ...
ich find`s schon faszinierend. allerdings graut es mich davor, wie und wo die neue technik eingesetzt wird.
man muss nur mal an die heutige handymanie denken... das ist doch furchtbar!! das doofe am menschen ist, dass er auf allen möglichen mist abfährt und erst hinterher (wenn überhaupt) realisiert, wie idiotisch dies oder jenes ist.
die frage ist auch: wenn wir uns an diese ganzen (seelenlosen) technikprodukte und roboter gewöhnen, färbt das nicht evtl. ab, so dass wir uns selbst nicht mehr als beseelt ansehen*?
jedenfalls hat er wenigstens keine seele. noch nicht.
Die Satzauswahl wird sich sicher noch erweitern. Ich erinnere mich an die ersten sprachgesteuerten Operationsmikroskope im Jahr 1988. Die konnten ungefähr 12 Wörter erkennen und zuordnen. (Wie z.B. "näher","weiter", "An", "Aus" usw.)
Heute haben wir Spracherkennungen, die sich durchaus zum Diktat eignen. Das Program "Eliza" hat schon vor 30 Jahren die Gesprächspartner fasziniert, obwohl der Algorithmus sehr einfach war. Weizenbaum wollte eigentlich zeigen, wie beschränkt eine AI ist, aber die Gesprächspartner waren noch beschränkter.
Ich wundere mich allerdings über die Skepsis des Eintrags. Kein Mensch (Außer mir !!! :) :) :) ) hat eine Ahnung, was in den nächsten zehn Jahren noch machbar sein wird.
ich glaube allerdings nicht an ihren sinnvollen einsatz bei demenzkranken.
denn ihnen fehlt es an seele und empathie (kann ich leider nicht außen vor lassen bei einem solchen einsatzgebiet).
@skepsis
@boma
man muss nur mal an die heutige handymanie denken... das ist doch furchtbar!! das doofe am menschen ist, dass er auf allen möglichen mist abfährt und erst hinterher (wenn überhaupt) realisiert, wie idiotisch dies oder jenes ist.
* was meiner meinung nach bereits stattfindet