[ad_1]

"Je visualise un moment où nous serons pour les robots ce que les chiens sont pour les humains, et j'attends les machines." -Claude Shannon

"Le père de la théorie de l'information" a signalé la puissance de l'intelligence artificielle il y a des décennies et nous en sommes témoins maintenant. Nous ne sommes pas conscients mais la plupart de nos tâches quotidiennes sont influencées par l'intelligence artificielle comme les transactions par carte de crédit, l'utilisation du GPS dans nos véhicules, l'assistance personnelle par diverses applications dans nos smartphones ou le support client en ligne par les chatbots. qui sont très proches de la réalité. Mais, sommes-nous sûrs qu'à l'avenir, les développements de l'Intelligence Artificielle ne seront pas le plus grand danger pour nous.

Aujourd'hui, cette programmation complexe qu'est Faible IA reproduit l'intelligence des êtres humains et surpasse les humains dans des tâches spécifiques. À l'avenir, avec l'évolution de l'IA forte, presque toutes les tâches des humains seront surpassées par l'intelligence artificielle. Le travail et le travail qui définissent notre identité et notre style de vie seront transmis aux robots. Il ne fait aucun doute que l'IA a la potentialité d'être plus intelligente que nous mais nous ne pouvons pas prédire comment elle se comportera dans le temps à venir.

À l'heure actuelle, personne au monde ne sait si une Intelligence Artificielle Forte sera bénéfique ou nuisible. à l'humanité. Il y a un groupe d'experts qui croient que l'IA forte ou la superintelligence nous aidera à éradiquer la guerre, les maladies et la pauvreté. D'un autre côté, certains experts pensent qu'il peut être utilisé criminellement pour développer des armes autonomes pour tuer des humains. Ils sont également préoccupés par l'IA qui, à elle seule, peut développer des méthodes destructrices pour atteindre les objectifs.

Certaines personnes suggèrent que l'intelligence artificielle peut être gérée comme les armes nucléaires, mais cette comparaison n'est pas sage en soi. Les armes nucléaires nécessitent rarement des matières premières comme l'uranium et le plutonium, alors que l'IA est essentiellement un logiciel. Quand les ordinateurs seront assez puissants, n'importe qui connaissant la procédure pour écrire le code approprié pourrait créer l'Intelligence Artificielle n'importe où.

Les personnes les plus en vue du monde de la technologie comme Bill Gates, Elon Musk et le grand scientifique Stephen Hawkins ont déjà exprimé préoccupations concernant la future transformation de l'intelligence artificielle. Ils n'ont pas tort de considérer l'IA comme la plus grande menace existentielle parce que nous dépendons déjà de systèmes intelligents et, à l'avenir, cette dépendance ne fera qu'augmenter.

Ce que nous pourrions affronter dans le futur pourrait être notre propre évolution. Nous contrôlons le globe parce que nous sommes les plus intelligents. Quand nous ne serons pas les plus intelligents, pourrions-nous garder le contrôle? Une solution visible aujourd'hui consiste à faire des recherches et à se préparer à tout résultat futur négatif potentiel. Cela nous aidera à éviter les pièges et à profiter des avantages de l'IA.

[ad_2]

0 réponses

Laisser un commentaire

Participez-vous à la discussion?
N'hésitez pas à contribuer!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *