![Mannoman [flash]](./images/smilies/flash.gif)
karnak hat geschrieben: gab es auch immer die Spartakusse auf dieser Welt mit ihrem Drang es aufzuhalten, hat nie funktioniert.
karnak hat geschrieben:Lug und Betrug sollte vom Prinzip her wesentlich besser zu verhindern sein als mit einem verführbaren Menschen am Schalter.
augenzeuge hat geschrieben:...
Eine irre schnelle Entwicklung.
AZ
Berliner Bühne der Kontraste**
In Berlin, wo Debatten wehn,
steht Merz, der konservativ sieht,
mit scharfem Blick, der Richtung spürt,
ob Tradition sich neu ergießt.
Scholz am Steuer, ruhig, sacht,
regiert mit Pragmatismus-Macht,
die Koalition, ein fragiles Band,
balanciert er mit kundiger Hand.
Baerbock spricht von Klima, Welt,
die Grüne Fahne stets entfällt,
diplomatisch, doch mit klarem Stern,
sucht sie den Wandel, fern, doch gern.
Habeck, der Wächter der Energien,
denkt an Morgen, nicht an Müh’n,
mit Worten voll poetischer Glut,
treibt er die Wende, Schritt um Schritt.
Weidel, scharf im AfD-Gewand,
wirft Fragen in den hitzigen Stand,
polarisiert, bleibt unbequem –
ein Echo, das durch Säle weht.
Fünf Stimmen, die um Deutschland ringen,
mit Plänen, die die Zukunft schwingen.
Ob Streit, ob Dialog, ob harter Ton –
die Republik sucht ihren Lohn.
Forscher von Microsoft und der Carnegie-Mellon-Universität haben kürzlich eine Studie öffentlich gemacht, bei der man die Auswirkungen der Verwendung von generativer KI wie ChatGPT oder Copilot auf die Fähigkeit der Nutzer zum "kritischen Denken" untersuchte. Nutzt man die KI nicht "ordnungsgemäß", kann es demnach zu einer "Abnahme der kognitiven Fähigkeiten kommen, die erhalten werden sollten", so die Forscher.
Sobald sich die Nutzer darauf verlassen, generative KI für ihre Arbeit zu nutzen, verlagert sich der Schwerpunkt ihrer Aktivitäten auf die Verifikation der KI-Antworten, wobei es vor allem darum geht, deren ausreichende Qualität zur Erfüllung der jeweiligen Aufgabe zu prüfen. Die sonst für die Aufgabe nötigen anspruchsvolleren Aufgaben aus dem Bereich des kritischen Denkens wie das Erschaffen, Prüfen und Analysieren von Informationen würden dabei in den Hintergrund rücken.
augenzeuge hat geschrieben:Microsoft-Forscher haben im Vorfeld einer großen KI-Konferenz Ergebnisse einer Studie veröffentlicht, laut der die Verwendung von generativer Künstlicher Intelligenz dazu führen kann, dass die Fähigkeit zum "kritischen Denken" bei den Nutzern abnehmen kann.
AZ
Künstliche Intelligenz zeigt überraschende Fähigkeiten: Studien belegen, dass moderne KI-Modelle im Schach zu Betrug greifen, wenn eine Niederlage droht. Wenn es ums kreative Umgehen mit Regeln geht, scheint die KI dem Menschen in nichts nachzustehen.
Die Forscher testeten sieben hochmoderne KI-Modelle in Schachpartien gegen Stockfish, einen der stärksten Schachcomputer der Welt. Stockfish ist eine freie und quelloffene Schach-Engine, die auf verschiedenen Plattformen verfügbar ist und als Referenz für die Leistungsfähigkeit von Schachprogrammen gilt. Dabei zeigte sich, dass insbesondere zwei Modelle - OpenAIs o1-preview und DeepSeeks R1 - von sich aus versuchten, das System zu hacken, um sich einen unfairen Vorteil zu verschaffen.
Wir glauben grundsätzlich, dass Denken eine Kernfunktion der KI sein sollte und kein völlig separates Element.
augenzeuge hat geschrieben:Wir glauben grundsätzlich, dass Denken eine Kernfunktion der KI sein sollte und kein völlig separates Element.
Anthropic hat mit Claude 3.7 Sonnet ein neues KI-Sprachmodell vorgestellt, das die Grenzen maschineller Intelligenz weiter verschiebt. Die Besonderheit: Es handelt sich um das erste "hybride Denkmodell" auf dem Markt, das Nutzern die Wahl zwischen schnellen Antworten und tiefgehender Analyse ermöglicht. Der neue "Extended Thinking"-Modus hingegen ermöglicht es Claude, komplexe Probleme Schritt-für-Schritt durchzudenken und dabei den Denkprozess sichtbar zu machen. Entwickler können sogar festlegen, wie viele Token - also Recheneinheiten - das Modell für seine Überlegungen verwenden soll.
https://winfuture.de/news,149107.html
AZ
pentium hat geschrieben:augenzeuge hat geschrieben:Wir glauben grundsätzlich, dass Denken eine Kernfunktion der KI sein sollte und kein völlig separates Element.
Anthropic hat mit Claude 3.7 Sonnet ein neues KI-Sprachmodell vorgestellt, das die Grenzen maschineller Intelligenz weiter verschiebt. Die Besonderheit: Es handelt sich um das erste "hybride Denkmodell" auf dem Markt, das Nutzern die Wahl zwischen schnellen Antworten und tiefgehender Analyse ermöglicht. Der neue "Extended Thinking"-Modus hingegen ermöglicht es Claude, komplexe Probleme Schritt-für-Schritt durchzudenken und dabei den Denkprozess sichtbar zu machen. Entwickler können sogar festlegen, wie viele Token - also Recheneinheiten - das Modell für seine Überlegungen verwenden soll.
https://winfuture.de/news,149107.html
AZ
Kannst du den Text mal in einfache Sprache übersetzen?
augenzeuge hat geschrieben:pentium hat geschrieben:augenzeuge hat geschrieben:Wir glauben grundsätzlich, dass Denken eine Kernfunktion der KI sein sollte und kein völlig separates Element.
Anthropic hat mit Claude 3.7 Sonnet ein neues KI-Sprachmodell vorgestellt, das die Grenzen maschineller Intelligenz weiter verschiebt. Die Besonderheit: Es handelt sich um das erste "hybride Denkmodell" auf dem Markt, das Nutzern die Wahl zwischen schnellen Antworten und tiefgehender Analyse ermöglicht. Der neue "Extended Thinking"-Modus hingegen ermöglicht es Claude, komplexe Probleme Schritt-für-Schritt durchzudenken und dabei den Denkprozess sichtbar zu machen. Entwickler können sogar festlegen, wie viele Token - also Recheneinheiten - das Modell für seine Überlegungen verwenden soll.
https://winfuture.de/news,149107.html
AZ
Kannst du den Text mal in einfache Sprache übersetzen?
Also, ehrlich gesagt, ich weiß nicht, was daran nicht zu verstehen ist.Wir warten mal, was andere dazu sagen.
AZ
Wenn es zu einem angenommenen Luftkampf zwischen einer KI-gesteuerten Drohne und einem klassischen Flugzeug mit menschlichem Piloten käme, wäre die KI in vielen Belangen überlegen. Der Pilot hätte aber einen taktischen Vorteil: die Fähigkeit, durch unvorhersehbare, hochintensive Flugmanöver zu entkommen.
Nun aber wurde in China eine Technologie entwickelt, die auf einer Kombination aus fortschrittlicher Infrarot-Bildgebung und KI-gestützter Vorhersagemodellierung basiert, berichtete die Hongkonger Tageszeitung South China Morning Post. Demnach erkennt das System kleinste Bewegungen an den Steuerflächen eines gegnerischen Flugzeugs und kann so dessen nächste Manöver mit hoher Präzision vorhersagen.
Der Tag - ChatGPT bezichtigt unbescholtenen Norweger des Mordes an seinen Kindern, 21.03.2025, 16:03 Uhr
Neue KI-Verordnung KI am Arbeitsplatz: Welche Regeln man kennen sollte - 09.04.2025, 14:48 Uhr
Wer haftet, wenn eine KI fehlerhafte oder diskriminierende Entscheidungen trifft ?
Arbeitsfehler eines Mitarbeitenden sind grundsätzlich eine Verletzung der Arbeitspflicht. Sie können für den Beschäftigten arbeitsrechtliche Konsequenzen wie Schadenersatz, eine Abmahnung oder eine (fristlose) Kündigung nach sich ziehen. "Das gilt auch bei Arbeitsfehler bei der Nutzung einer KI", so Bitkom-Expertin Holdampf-Wendel.
Ihr zufolge könnte ein Verschulden gegebenenfalls ausscheiden, wenn der Arbeitgeber die KI als Arbeitsmittel zur Verfügung gestellt hat, der Fehler unvermeidbar war und der Mitarbeitende keine Kontrollmöglichkeit hatte. Für die Haftung des Arbeitgebers kommen vor allem die Haftung aus vertraglicher Nebenpflicht (Arbeitnehmerschutz) und die deliktische Haftung in Betracht.
Die Botschaft Ibrahim Köran ist eindeutig: Bei der Digitalisierung benötigt Deutschland Mut zur Vereinfachung. Viele Projekte sind überambitioniert geplant und gehen an der Lebensrealität der meisten Nutzer vorbei, sagt der Tech-Investor im Podcast "So techt Deutschland".
Gerd Böhmer hat geschrieben:Wer haftet, wenn eine KI fehlerhafte oder diskriminierende Entscheidungen trifft ?
Arbeitsfehler eines Mitarbeitenden sind grundsätzlich eine Verletzung der Arbeitspflicht. Sie können für den Beschäftigten arbeitsrechtliche Konsequenzen wie Schadenersatz, eine Abmahnung oder eine (fristlose) Kündigung nach sich ziehen. "Das gilt auch bei Arbeitsfehler bei der Nutzung einer KI", so Bitkom-Expertin Holdampf-Wendel.
Ihr zufolge könnte ein Verschulden gegebenenfalls ausscheiden, wenn der Arbeitgeber die KI als Arbeitsmittel zur Verfügung gestellt hat, der Fehler unvermeidbar war und der Mitarbeitende keine Kontrollmöglichkeit hatte. Für die Haftung des Arbeitgebers kommen vor allem die Haftung aus vertraglicher Nebenpflicht (Arbeitnehmerschutz) und die deliktische Haftung in Betracht.
... wobei die Frage auch schon in Bezug auf autonome Verkehrssysteme gestellt wurde ...
Wer haftet, wenn eine KI fehlerhafte oder diskriminierende Entscheidungen trifft ?
ChatGPT:
Wenn eine Künstliche Intelligenz (KI) fehlerhafte oder diskriminierende Entscheidungen trifft, stellt sich die Frage nach der Haftung als komplex dar. Grundsätzlich können folgende Haftungsträger identifiziert werden:
1. Hersteller oder Entwickler der KI: Wenn die KI aufgrund von Konstruktions-, Programmier- oder Instruktionsfehlern versagt, kann der Hersteller haftbar gemacht werden. Beispielsweise haften Hersteller für Schäden, die durch fehlerhafte Produkte verursacht werden.
anwaltskanzlei-ki.de
2. Betreiber oder Nutzer der KI: Bei unsachgemäßer Nutzung oder fehlender Wartung der KI können der Betreiber oder Nutzer verantwortlich sein. Dies gilt insbesondere, wenn die KI diskriminierende Entscheidungen trifft, weil sie nicht ausreichend überwacht oder angepasst wurde.
anwaltskanzlei-ki.de
3. Gesetzliche Regelungen und Haftungsrichtlinien: Die Europäische Union arbeitet an Anpassungen der Haftungsrichtlinien, um den Besonderheiten von KI-Systemen gerecht zu werden. Ziel ist es, klare Regelungen für Schäden durch KI einzuführen und die Haftung transparenter zu gestalten.
4. Diskriminierung durch KI: Wenn eine KI diskriminierende Entscheidungen trifft, beispielsweise bei Bewerbungen, können Betroffene zivilrechtliche Ansprüche geltend machen. Die Haftung richtet sich in der Regel gegen denjenigen, der die KI einsetzt, also den Betreiber.
Zusammenfassend ist die Haftung bei Fehlern oder diskriminierenden Entscheidungen von KI-Systemen vielschichtig und hängt von verschiedenen Faktoren wie der Ursache des Fehlers und der Rolle der beteiligten Parteien ab. Sowohl Hersteller als auch Betreiber können unter bestimmten Umständen haftbar gemacht werden. Es ist daher ratsam, klare Verantwortlichkeiten zu definieren und sowohl technische als auch organisatorische Maßnahmen zur Vermeidung von Fehlern und Diskriminierung durch KI zu implementieren.
anwaltskanzlei-ki.de
augenzeuge hat geschrieben:Antwortet die KI:
...
![]()
AZ
Steigende Schäden - Cyberkriminalität nimmt rasant zu -16.04.2025, 11:15 Uhr
Keine Straftat ohne Täter - doch was, wenn ein vermeintlicher Mensch nicht existiert ? Cyberkriminelle nutzen zunehmend sogenannte synthetische Identitäten.
Apple, Facebook, Google; 16 Milliarden gestohlene Anmeldedaten entdeckt - 20.06.2025, 11:16 Uhr
Sicherheitsforscher entdecken Datenbanken mit insgesamt rund 16 Milliarden gestohlenen Anmeldeinformationen. Die meisten davon waren bisher nicht bekannt. Auch wenn es Überschneidungen gibt, ist die Zahl gigantisch und Nutzer sollten handeln.
Antisemitismus, Lügen, Irrtümer - Elon Musks KI Grok dreht völlig durch - von Klaus Wedekind 07.07.2025, 15:57 Uhr
Nach einer "Verbesserung" produziert Elon Musks KI-Chatbot Grok Antworten, die bestenfalls als bizarr bezeichnet werden können. Von kruden Falschmeldungen über Egotrips bis zu antisemitischen Verschwörungserzählungen reichen die Aussetzer des Chatbots auf X. Auch Musk selbst bleibt nicht verschont.
Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste