• FreeA
  • Posts
  • L'IA vous surveille déjà.

L'IA vous surveille déjà.

+ Pourquoi l'Europe est en retard sur l'IA

Hello,

Aujourd’hui, il fallait qu’on parle du retard que prend l’Europe sur l’IA

Face aux Etats-Unis et à la Chine, notre vieux continent est déjà bien à la traîne.

Aussi, on parle plus longuement d’un sujet important.

Les caméras intelligentes.
Parce qu’on en entend parler depuis les JO, et qu’elles sont déjà dans l’hexagone.

Est-ce que Georges Orwell avait raison, et Big Brother is watching you ?

Théo

Tirez parti des infrastructures de Vultr pour votre prochain projet d’IA*

Tous les devs qui travaillent avec de l’IA ont le même problème : leurs infrastructures coûtent trop cher.

Parce que sans les processeurs les plus puissants pour développer son modèle, on se retrouve très vite derrière la concurrence.

C’est pour ça que je voulais vous parler de Vultr.

Ils vous donnent accès à des machines virtuelles à la demande ou des clusters dédiés à grande échelle, instantanément grâce au cloud.

Et ce, alors que le monde entier se bat pour y avoir accès.

Les possibilités ?

Entraîner des modèles d’IA, simuler des environnements de VR, générer des données synthétiques… bref : ce que toutes les entreprises à la pointe de l’IA font.

Sauf que ça coûte beaucoup moins cher et que vous pouvez déployer vos projets dans + de 32 endroits à travers le monde.

Pour tester, recevez $250 de crédits en cliquant sur ce lien :

*Article sponsorisé

La crise de l’IA en Europe

Notre continent prend du retard sur l’innovation. Voici pourquoi, et ce que ça implique :

La révolution industrielle a placé l’Europe en chef de file de l’innovation technologique mondiale.

Énergie, textile, armement…

Autant de domaines dans lesquels l’Europe a repoussé les limites.

Le résultat ?

Une cascade de changements sociétaux qui ont permis au vieux continent de rester à la pointe du progrès.

Mais les choses ont changé.
Avec l’expansion de son influence et de son pouvoir, l’Europe a commencé à avoir beaucoup à perdre.

Et cette peur de perdre se traduit par une législation forte pour protéger ses actifs.

Législation et performance

Les dirigeants européens demandent un cadre légal fort pour encadrer les innovations autour de l’IA.

Les risques de ces innovations ?

  • Un manque de transparence des entreprises ;

  • Une exploitation des données problématique ;

  • Des risques de sécurité liés à leur usage (exemple : les deepfakes) ;

  • Une concentration des pouvoirs d’un petit groupe d’entreprise sur l’IA ;

  • Des dilemmes éthiques et moraux autour du pouvoir conféré aux algorithmes.

Bref, autant d’éléments qui inquiètent nos gouvernants.
À l’échelle nationale, comme à l’échelle de l’Union européenne.

Sauf que sur le papier, la législation vise à encadrer les risques tout en renforçant la position de l'Europe dans le domaine de l’IA.

Dans les faits, elle rentre souvent en conflit avec la capacité à innover.

Un frein à l’innovation ?

Pour saisir l’ampleur du problème, il suffit de regarder les valorisations des start-ups européennes comparées à ses concurrents américains et chinois.

Quelques exemples :

Valorisations estimées pour les start-ups d’intelligence artificielle en 2024

Le résultat est clair :

Une seule représentante européenne figure sur cette liste des 10 plus gros concurrents d’OpenAI en termes de valorisation…

Il s’agit de Mistral AI, en 6e position, une start-up bleu-blanc-rouge basée à Paris.
On vous avait parlé d’eux dans cette newsletter :

La France est le pays européen qui a levé le plus de fonds pour ses start-ups IA (dont 600 millions juste pour MistralAI, et 220 pour H.)

Donc oui, l’Europe a un gros retard sur l’innovation.

Et selon les Américains, ce serait à cause de nos législations :

Dans une lettre ouverte, Meta, Spotify, et d’autres géants ont exprimé leurs préoccupations quant à un potentiel ralentissement de l’Europe.

Ils soulignent que les réglementations strictes et fragmentées de l'UE freinent l’innovation.
Et le pire, c’est qu’ils n’ont pas entièrement tort.

Ces réglementations nous coûtent beaucoup.
Surtout face aux États-Unis et à la Chine qui bénéficient de politiques plus souples.

Mais pour autant, ces législations sont absolument nécessaires.

Pour une fois, nos instances réagissent rapidement aux innovations technologiques dans la régulation de l’IA, pour limiter ses dangers.

Il y a énormément à dire sur le sujet.

Est-ce que vous voulez une newsletter sur toute la question juridique de l'IA, et des réglementations mises en place ?

Connexion ou S'abonner pour participer aux sondages.

Big Brother is watching…

Est-ce que 1984 de Georges Orwell devient une réalité ?

D’abord de la science-fiction, les caméras intelligentes font aujourd’hui partie du quotidien de milliards de personnes.

En Chine, elles peuvent carrément vous interdire l’accès à votre compte en banque…
On dirait un épisode de Black Mirror.

Sauf que Black Mirror est juste une fiction.
La réalité est toujours un peu plus complexe à décrypter.

Voici tout ce que vous devez savoir sur ces nouvelles technologies et leur arrivée dans l’hexagone.

Le laboratoire des JO Paris 2024

L’organisation des JO était de la folie.
Imaginez : devoir sécuriser une capitale entière s’apprêtant à accueillir des millions de touristes.

Mais l’enjeu principal était sûrement la cérémonie d’ouverture.
La moindre vague de la Seine était retransmise dans le monde entier.

Pour l’occasion, Paris a servi de laboratoire pour des caméras intelligentes.
Elles sont équipées d’algorithmes et d’IA pour détecter les comportements suspects en temps réel.

Comment ça fonctionne ?

Au cours des JO, les algorithmes se sont entraînés à détecter des situations qui mèneraient à des interpellations.

Mouvements de foule, agressions, comportements inhabituels…

Aux commandes de ces avancées, la société française Wintics, qui développe les algorithmes de vidéosurveillance.

Une fois implémentés, même des caméras classiques peuvent devenir intelligentes.

Et cette innovation n’a pas plus à tout le monde.
Dès les premiers tests, des ONG comme Amnesty international ont tiré la sonnette d’alarme.

D’après eux, “la vidéosurveillance algorithmique (VSA) ouvre la boîte de Pandore de la surveillance.”

En même temps, des dérives sont possibles.
Et elles font peur à tout le monde.

Depuis quelques années, un exemple de surveillance de masse refait régulièrement surface dans les médias.

La Chine.
Le gouvernement chinois étend progressivement son contrôle sur les populations grâce à un programme lancé dans les années 1980.

Et il est largement épaulé par les nouvelles technologies.

Là-bas, les caméras intelligentes font partie du quotidien, et les algorithmes ont déjà un pouvoir décisionnel par le biais du crédit social.

Le concept ?

Un score de bonne conduite vous est attribué. En fonction des infractions que vous commettez, les algorithmes prennent des sanctions automatiques.

De l’impossibilité de charger votre voiture électrique à l’interdit bancaire, voire à une restriction de l’accès à votre domicile.

Pour mieux comprendre le crédit social chinois :

C’est juste fou.

Mais heureusement, on est encore loin du système chinois dans nos démocraties occidentales.

Notre approche est différente.
La détection algorithmique doit conserver un rôle de soutien aux forces de l’ordres.

Et il faut l’admettre, ce genre d’outil faciliterait beaucoup le travail de nos policiers…

Des robots pour notre sécurité

Nos gardiens de la paix sont en tension permanente et en manque d’investissement.
La VSA vient offrir une solution idéale pour pallier ces déficiences.

Avec les algorithmes, le temps de détection d’une infraction est réduit de 20 à 30 %.
En conséquence, la criminalité diminuerait de 30 à 40 %.

Pour creuser les statistiques :

Bref, moins de crimes, plus de réactivité, et une police libérée des tâches les plus répétitives.

Cette vision se confirme avec des cas concrets qui fonctionnent.
Quelques exemples autour du monde :

À Singapour

Depuis 2016, les drones du petit état ont permis de réduire de 80 % le temps d’intervention et de 60 % les coûts associés à la surveillance et aux inspections.

La ville a aussi déployé une technologie folle : des lunettes intelligentes pour ses agents de police, facilitant la reconnaissance faciale en temps réel et l’analyse vidéo lors d’événements publics.

Singapour est reconnu unanimement comme l’une des villes les plus sûres au monde.

Au Japon

En préparation des Jeux Olympiques de Tokyo, la police japonaise a intégré des systèmes de caméras intelligentes capables de relier les crimes entre eux pour anticiper les mouvements futurs des criminels. Non, Paris n’était pas la première ville à tester.

Grâce à des algorithmes, ces systèmes croisent des données complexes pour identifier les zones à risque. Et si ça a été repris pour 2024, c’est que ça a bien fonctionné.

À Rio

En 2016, la ville a lancé l’application CrimeRadar, un outil de prédiction des risques basé sur l’historique des incidents dans la ville.

Le programme visualise les niveaux de sécurité par zones et par créneaux horaires.
Les résultats sont délirants.

Il a permis une réduction des crimes de 30 à 40 % dans les zones couvertes.

En plus, l'information est accessible via smartphones et ordinateurs.
Donc CrimeRadar combine transparence et réduction des risques.

Bon, malgré ces implémentations qui montrent l’efficacité de certains systèmes, d’autres innovations ont été des fiascos.

À tel point qu’elles ont créé des polémiques.

À New York, la reconnaissance faciale de la vidéosurveillance a causé de gros problèmes.

Des milliers de caméras couvrent presque toutes les rues du Bronx, de Brooklyn et du Queens.

Et elles ciblaient de manière disproportionnée les communautés non-blanches de ces quartiers.

La raison ?

Les algorithmes étaient entraînés sur des données du NYPD, qui surreprésentaient les communautés non-blanches.

Résultat : un logiciel biaisé, amplifiant les pratiques discriminatoires de contrôle et de fouille.

Là encore, les ONG en ont parlé :

Au vu de notre maîtrise encore balbutiante de ces nouveaux moyens, peut-être qu’on a un peu de temps avant que Georges Orwell n’ait raison.

Vers un juste-milieu ?

Nos démocraties occidentales pourraient bénéficier de ces systèmes pour assister des forces de l’ordre débordées et en manque de moyens.

Mais entre la difficulté d’implémenter ces nouvelles méthodes à grande échelle et la technologie qui nous fait encore défaut pour des solutions 100 % autonomes, les dystopies peintes dans Black Mirror ou 1984 ont encore un peu de chemin avant d’arriver à nos portes.

Pourtant, le débat autour de la vidéosurveillance intelligente est déjà houleux.
Et c’est tant mieux.

C’est grâce à ce débat que nous pourrons atteindre un juste-milieu entre sécurité et liberté, dans une époque où, plus que jamais auparavant, nous expérimentons avec des nouvelles technologies.

D’ailleurs, quel est votre avis :

Seriez-vous prêt à voir des dispositifs de VSA arriver dans votre ville ?

Connexion ou S'abonner pour participer aux sondages.

Et voici pour aujourd'hui !

On se retrouve lundi !

En attendant, dis moi-ce que tu as pensé de la newsletter d'aujourd'hui !

Comment était la newsletter d'aujourd'hui ?

Connexion ou S'abonner pour participer aux sondages.

La remarque de la semaine dernière :

Merci pour ce beau commentaire !

Je ne suis pas forcément d’accord sur la limite des robots, ce serait comme fabriquer uniquement des couteaux émoussés pour éviter les meurtres.

Et c’est justement pour ça que la cybersécurité va avoir de plus en plus d’importance !

PS : Cette newsletter a été écrite à 100% par un humain. Ok, peut-être 80%.

Reply

or to participate.