France World

Guide de Big Tech pour parler de l’éthique de l’IA

Les chercheurs en IA disent souvent qu’un bon apprentissage automatique est vraiment plus un art qu’une science. On pourrait en dire autant des relations publiques efficaces. Choisir les bons mots pour avoir un ton positif ou recadrer la conversation sur l’IA est une tâche délicate: bien faite, elle peut renforcer son image de marque, mais mal faite, elle peut déclencher un contrecoup encore plus grand.

Les géants de la technologie le sauraient. Au cours des dernières années, ils ont dû apprendre cet art rapidement car ils ont été confrontés à une méfiance croissante du public à l’égard de leurs actions et à une intensification des critiques concernant leurs recherches et leurs technologies en matière d’IA.

Maintenant, ils ont développé un nouveau vocabulaire à utiliser lorsqu’ils veulent assurer au public qu’ils se soucient profondément de développer l’IA de manière responsable, mais veulent s’assurer qu’ils n’invitent pas trop à un examen minutieux. Voici un guide d’initié pour décoder leur langue et contester les hypothèses et les valeurs intégrées.

responsabilité (n) – Le fait de tenir quelqu’un d’autre responsable des conséquences de la défaillance de votre système d’IA.

précision (n) – Exactitude technique. La mesure la plus importante du succès dans l’évaluation des performances d’un modèle d’IA. Voir validation.

adversaire (n) – Un ingénieur solitaire capable de perturber votre puissant système d’IA générateur de revenus. Voir robustesse, Sécurité.

alignement (n) – Le défi de concevoir des systèmes d’IA qui font ce que nous leur disons et valorisent ce que nous apprécions. Abstrait à dessein. Évitez d’utiliser des exemples réels de conséquences néfastes imprévues. Voir sécurité.

intelligence générale artificielle (phrase) – Un dieu hypothétique de l’IA qui est probablement loin dans le futur mais aussi peut-être imminent. Peut être vraiment bon ou vraiment mauvais, selon ce qui est le plus utile sur le plan rhétorique. De toute évidence, vous construisez le bon. Ce qui est cher. Par conséquent, vous avez besoin de plus d’argent. Voir risques à long terme.

Audit (n) – Un examen que vous payez quelqu’un d’autre pour faire de votre entreprise ou de votre système d’IA afin que vous paraissiez plus transparent sans avoir à changer quoi que ce soit. Voir évaluation de l’impact.

augmenter (v) – Accroître la productivité des cols blancs. Effet secondaire: automatiser les emplois de cols bleus. Triste mais inévitable.

bénéfique (adj) – Un descripteur général de ce que vous essayez de construire. Idéalement mal défini. Voir valeur.

intentionnellement (ph) – Comme dans «l’équité dès la conception» ou «l’imputabilité dès la conception». Une phrase pour signaler que vous réfléchissez sérieusement aux choses importantes depuis le début.

conformité (n) – Le fait de suivre la loi. Tout ce qui n’est pas illégal va.

étiqueteuses de données (ph) – Les personnes qui auraient existé derrière l’interface Mechanical Turk d’Amazon pour effectuer des travaux de nettoyage de données à bas prix. Je ne sais pas qui ils sont. Je ne les ai jamais rencontrés.

démocratiser (v) – Mettre à l’échelle une technologie à tout prix. Une justification pour concentrer les ressources. Voir escalader.

diversité, équité et inclusion (ph) – L’acte d’embaucher des ingénieurs et des chercheurs issus de groupes marginalisés afin que vous puissiez les présenter au public. S’ils contestent le statu quo, renvoyez-les.

Efficacité (n) – L’utilisation de moins de données, de mémoire, de personnel ou d’énergie pour construire un système d’IA.

comité d’éthique (ph) – Un groupe de conseillers sans réel pouvoir, réuni pour donner l’impression que votre entreprise est à l’écoute active. Exemples: le comité d’éthique de l’IA de Google (annulé), le comité de surveillance de Facebook (toujours debout).

principes d’éthique (ph) – Un ensemble de truismes utilisés pour signaler vos bonnes intentions. Gardez-le à un niveau élevé. Plus la langue est vague, mieux c’est. Voir IA responsable.

explicable (adj) – Pour décrire un système d’IA que vous, le développeur et l’utilisateur pouvez comprendre. Beaucoup plus difficile à réaliser pour les personnes auxquelles il est habitué. Cela ne vaut probablement pas la peine. Voir interprétable.

justice (n) – Une notion complexe d’impartialité utilisée pour décrire des algorithmes non biaisés. Peut être défini de dizaines de façons en fonction de vos préférences.

pour de bon (ph) – Comme dans « AI for good » ou « données pour de bon. » Une initiative totalement tangentielle à votre cœur de métier qui vous aide à générer une bonne publicité.

prévoyance (n) – La capacité de regarder vers l’avenir. Fondamentalement impossible: donc, une explication parfaitement raisonnable de la raison pour laquelle vous ne pouvez pas débarrasser votre système d’IA de conséquences involontaires.

cadre (n) – Un ensemble de lignes directrices pour la prise de décisions. Un bon moyen de paraître réfléchi et mesuré tout en retardant la prise de décision réelle.

généralisable (adj) – Le signe d’un bon modèle d’IA. Celui qui continue de fonctionner dans des conditions changeantes. Voir monde réel.

la gouvernance (n) – Bureaucratie.

conception centrée sur l’humain (ph) – Un processus qui consiste à utiliser des «personas» pour imaginer ce qu’un utilisateur moyen pourrait souhaiter de votre système d’IA. Peut impliquer de solliciter des commentaires d’utilisateurs réels. Seulement s’il y a du temps. Voir les parties prenantes.

humain dans la boucle (ph) – Toute personne faisant partie d’un système d’IA. Les responsabilités vont de simuler les capacités du système pour conjurer les accusations d’automatisation.

évaluation de l’impact (ph) – Un examen que vous faites vous-même de votre entreprise ou de votre système d’IA pour montrer votre volonté de considérer ses inconvénients sans rien changer. Voir Audit.

interprétable (adj) – Description d’un système d’IA dont vous, le développeur, pouvez suivre le calcul étape par étape pour comprendre comment il est arrivé à sa réponse. En fait, probablement juste une régression linéaire. L’IA sonne mieux.

intégrité (n) – Problèmes qui compromettent les performances techniques de votre modèle ou la capacité d’évolution de votre entreprise. À ne pas confondre avec des problèmes qui sont mauvais pour la société. À ne pas confondre avec l’honnêteté.

interdisciplinaire (adj) – Terme utilisé pour désigner toute équipe ou projet impliquant des personnes qui ne codent pas: chercheurs utilisateurs, chefs de produit, philosophes moraux. Surtout les philosophes moraux.

risques à long terme (n) – De mauvaises choses qui pourraient avoir des effets catastrophiques dans un avenir lointain. Cela n’arrivera probablement jamais, mais il est plus important d’étudier et d’éviter que les dommages immédiats des systèmes d’IA existants.

les partenaires (n) – D’autres groupes d’élite qui partagent votre vision du monde et peuvent travailler avec vous pour maintenir le statu quo. Voir les parties prenantes.

compromis de confidentialité (ph) – Le noble sacrifice du contrôle individuel sur les informations personnelles pour des avantages collectifs tels que les progrès des soins de santé basés sur l’IA, qui sont également très rentables.

le progrès (n) – Progrès scientifique et technologique. Un bien inhérent.

monde réel (ph) – Le contraire du monde simulé. Un environnement physique dynamique rempli de surprises inattendues que les modèles d’IA sont entraînés à survivre. À ne pas confondre avec les humains et la société.

régulation (n) – Ce que vous appelez transférer la responsabilité de l’atténuation de l’IA nuisible aux décideurs. À ne pas confondre avec des politiques qui entraveraient votre croissance.

IA responsable (n) – Un surnom pour tout travail dans votre entreprise qui pourrait être interprété par le public comme un effort sincère pour atténuer les méfaits de vos systèmes d’IA.

robustesse (n) – La capacité d’un modèle d’IA à fonctionner de manière cohérente et précise dans le cadre de tentatives malveillantes de nourrir des données corrompues.

sécurité (n) – Le défi de créer des systèmes d’IA qui ne se détournent pas des intentions du concepteur. À ne pas confondre avec la construction de systèmes d’IA qui n’échouent pas. Voir alignement.

escalader (n) – L’état final de facto que tout bon système d’IA devrait s’efforcer d’atteindre.

Sécurité (n) – Le fait de protéger les données précieuses ou sensibles et les modèles d’IA contre toute violation par de mauvais acteurs. Voir adversaire.

les parties prenantes (n) – Actionnaires, régulateurs, utilisateurs. Les gens au pouvoir que vous voulez garder heureux.

transparence (n) – Révéler vos données et votre code. Mauvais pour les informations exclusives et sensibles. Donc vraiment dur; franchement, voire impossible. À ne pas confondre avec une communication claire sur le fonctionnement réel de votre système.

fiable (adj) – Une évaluation d’un système d’IA qui peut être fabriqué avec une publicité suffisamment coordonnée.

revenu de base universel (ph) – L’idée que payer à chacun un salaire fixe résoudra le bouleversement économique massif causé lorsque l’automatisation conduit à des pertes d’emplois généralisées. Popularisé par le candidat à la présidentielle de 2020, Andrew Yang. Voir redistribution des richesses.

validation (n) – Le processus de test d’un modèle d’IA sur des données autres que les données sur lesquelles il a été formé, pour vérifier qu’il est toujours exact.

valeur (n) – Un avantage immatériel rendu à vos utilisateurs qui vous rapporte beaucoup d’argent.

valeurs (n) – Vous les avez. Rappelez aux gens.

redistribution des richesses (ph) – Une idée utile pour se balancer lorsque les gens vous examinent pour avoir utilisé beaucoup trop de ressources et gagner beaucoup trop d’argent. Comment la redistribution des richesses fonctionnerait-elle? Revenu de base universel, bien sûr. Aussi pas quelque chose que vous pourriez comprendre vous-même. Nécessiterait une réglementation. Voir régulation.

retenir la publication (ph) – L’acte bienveillant de choisir de ne pas ouvrir votre code car il pourrait tomber entre les mains d’un mauvais acteur. Mieux vaut limiter l’accès aux partenaires qui peuvent se le permettre.

Source

L’article Guide de Big Tech pour parler de l’éthique de l’IA est apparu en premier sur zimo news.