Inhalt
summary Zusammenfassung

Das CRM-Unternehmen Salesforce integriert zahlreiche KI-Dienste in seine eigenen Angebote. Das macht eine neue Richtlinie notwendig.

Anzeige

In der "Artificial Intelligence Acceptable Use Policy" stellt Salesforce klar, dass die eigenen KI-Systeme keine Verantwortung für Entscheidungen übernehmen können, die möglicherweise rechtliche oder ähnlich wichtige Auswirkungen haben.

Der Einsatz der KI-Produkte von Salesforce sei nur dann richtlinienkonform, wenn die endgültige Entscheidung von einem Menschen getroffen werde. Der Kunde muss neben der KI-Empfehlung auch andere Argumente berücksichtigen.

Generative KI darf qualifizierte Beratung nicht ersetzen

In eine ähnliche Richtung geht die Richtlinie, die festlegt, dass generative KI keine qualifizierte Beratung ersetzen darf, etwa in der Finanz- oder Rechtsberatung, und dass sie keine individuelle medizinische Beratung, Behandlung oder Diagnose generieren darf.

Anzeige
Anzeige

Ein unterstützender Einsatz von KI, etwa durch Zusammenfassungen längerer Texte, sei hingegen zulässig. Allerdings müsse auch in diesem Fall eine qualifizierte Fachkraft in den Prozess eingebunden sein, die die generierten Inhalte überprüft und freigibt.

Salesforce sichert sich auch gegen den Einsatz von KI für Diskriminierung, Missbrauch oder Täuschung sowie gegen den Einsatz der Systeme für politische Kampagnen und die Entwicklung von Waffen ab. Das gilt beispielsweise auch für die Vermarktung von Waffen.

Kunden verlangen Transparenz bei KI

Salesforce veröffentlicht auch die neueste Ausgabe der internationalen Studie "State of the connected customer". Hier zeigt sich das Misstrauen der Kunden, dass Unternehmen KI ethisch einsetzen - nur 57 Prozent gehen davon aus.

68 Prozent der Kunden sagen, dass Fortschritte in der KI Unternehmen vor die Herausforderung stellen, noch transparenter zu kommunizieren. 89 Prozent wollen beispielsweise wissen, ob sie im Kundensupport mit einem Menschen oder einer KI sprechen und 80 Prozent halten es für wichtig, dass KI-generierte Inhalte von Menschen geprüft und freigegeben werden.

Die Daten wurden in einer Doppelblindbefragung von 11.000 Verbrauchern und 3.300 gewerblichen Einkäufern vom 3. Mai bis 14. Juli 2023 in zahlreichen Ländern erhoben.

Empfehlung

Salesforce bietet unter anderem spezialisierte Sprachmodelle für Marketing und Commerce sowie Service und Sales an, ist Investor beim auf B2B-KI spezialisierten Start-up Cohere und trainiert auch eigene KI-Modelle wie das Code-Modell T5.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Salesforce hat eine "Artificial Intelligence Acceptable Use Policy" veröffentlicht, in der es klarstellt, dass seine KI-Systeme keine Entscheidungen mit rechtlichen oder wichtigen Auswirkungen treffen können und dass der unterstützende Einsatz von KI nur zulässig ist, solange die endgültige Entscheidung von einem Menschen getroffen wird.
  • Die Richtlinie legt fest, dass generative KI keine qualifizierte Beratung ersetzen darf, beispielsweise in den Bereichen Finanzen, Recht oder Medizin, und dass eine qualifizierte Fachkraft die generierten Inhalte überprüfen und freigeben muss.
  • Eine Studie von Salesforce zeigt, dass 57 Prozent der Kunden misstrauisch sind, ob Unternehmen KI ethisch einsetzen. 80 Prozent halten es für wichtig, dass KI-generierte Inhalte von Menschen überprüft und freigegeben werden, und 89 Prozent wollen wissen, ob sie mit einer KI oder einem Menschen sprechen.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!