ChatGPT, Character.AI, et autres intelligences artificielles

Tu vois. Il n'y a que les imbeciles qui ne changent pas d'avis :grin:
Certes, mais cela n'exclut pas que certaines personnes qui changent d'avis soient des imbéciles quand même ... (suivez mon regard)

Ou pour le matheux que tu prétends être :

(A => B) <=> (nonB =>nonA), mais (A => B) <≠> (nonA => nonB)
 
Voila ce qui arrive quand tu fais des etudes d'ingenieur. Vraiment une formation (ou deformation plutot) que je ne souhaite a personne. Quand je pense que j'ai ete pousse a faire ca, soit disant que c'etait la creme de la creme en matiere de formation. L'elite de la nation comme ils aiment a nous le repeter sans arret. Au final, une formation generaliste ou t'apprends rien de concret. Des postes de manager a la con qui sont payes au lance pierre. Quand tu croises des gens qui sur le papier ont fait des etudes moins exigeantes (cuisine, architecture, etc.) et qui s'eclatent dans leur boulot et qui ont des salaires 3x plus eleves que le tien. Enfin, voila ma vision des etudes d'ingenieurs.

Sans compter que tu te rends compte que ton ecole d'ingenieur soit-disant au top du top dans les classements francais se retrouve a la 1500eme places dans les classements internationaux. Ca fout un coup.
 
Voila ce qui arrive quand tu fais des etudes d'ingenieur. Vraiment une formation (ou deformation plutot) que je ne souhaite a personne. Quand je pense que j'ai ete pousse a faire ca, soit disant que c'etait la creme de la creme en matiere de formation. L'elite de la nation comme ils aiment a nous le repeter sans arret. Au final, une formation generaliste ou t'apprends rien de concret. Des postes de manager a la con qui sont payes au lance pierre. Quand tu croises des gens qui sur le papier ont fait des etudes moins exigeantes (cuisine, architecture, etc.) et qui s'eclatent dans leur boulot et qui ont des salaires 3x plus eleves que le tien. Enfin, voila ma vision des etudes d'ingenieurs.

Sans compter que tu te rends compte que ton ecole d'ingenieur soit-disant au top du top dans les classements francais se retrouve a la 1500eme places dans les classements internationaux. Ca fout un coup.
Tu peux toujours te remonter le moral en te disant que tu n'es pas vraiment un bon ingenieur.
Un bon ingenieur comprendrait immediatement que comparer l'energie cinetique d'une trottinette avec celle d'un calibre 9mm au niveau des degats d'impact n'a aucun sens.
 
Tu peux toujours te remonter le moral en te disant que tu n'es pas vraiment un bon ingenieur.
Un bon ingenieur comprendrait immediatement que comparer l'energie cinetique d'une trottinette avec celle d'un calibre 9mm au niveau des degats d'impact n'a aucun sens.
Tu peux toujours te remonter le moral en te disant que tu n'es pas vraiment un ingenieur.
Un ingenieur comprendrait immediatement que comparer l'energie cinetique d'une trottinette avec celle d'un calibre 9mm au niveau des degats d'impact n'a aucun sens.
 
Tu peux toujours te remonter le moral en te disant que tu n'es pas vraiment un ingenieur.
Un ingenieur comprendrait immediatement que comparer l'energie cinetique d'une trottinette avec celle d'un calibre 9mm au niveau des degats d'impact n'a aucun sens.
Tu peux toujours te remonter le moral en te disant que tu n'es pas vraiment.
 
pour ceux que l'I A intéresse... on peut écouter utilement un peu de l'I H...
 

Lawyer Uses ChatGPT In Federal Court And It Goes Horribly Wrong​


A lawyer representing a man in a personal injury lawsuit in Manhattan has thrown himself on the mercy of the court. What did the lawyer do wrong? He submitted a federal court filing that cited at least six cases that don’t exist. Sadly, the lawyer used the AI chatbot ChatGPT, which completely invented the cases out of thin air.

The lawyer in the case, Steven A. Schwartz, is representing a man who’s suing Avianca Airlines after a serving cart allegedly hit his knee in 2019. Schwartz said he’d never used ChatGPT before and had no idea it would just invent cases.

In fact, Schwartz said he even asked ChatGPT if the cases were real. The chatbot insisted they were. But it was only after the airline’s lawyers pointed out in a new filing that the cases didn’t exist that Schwartz discovered his error. (Or, the computer’s error, depending on how you look at it.)

The judge in the case, P. Kevin Castel, is holding a hearing on June 8 about what to do in this tangled mess, according to the New York Times. But, needless to say, the judge is not happy.

ChatGPT was launched in late 2022 and instantly became a hit. The chatbot is part of a family of new technologies called generative AI that can hold conversations with users for hours on end. The conversations feel so organic and normal that sometimes ChatGPT will seem to have a mind of its own. But the technology is notoriously inaccurate and will often just invent facts and sources for facts that are completely fake. Google’s competitor product Bard has similar problems.


Encore un qui n'a pas compris comment fonctionne chatGPT.
Son client doit etre drolement content.
 
si chatGPT peut aider à expliquer comment ouvrir sans ciseau une ouverture facile d'un paquet de cahuètes
 
tnir998vtj3b1.png
 
Naviguer dans les risques de l’intelligence artificielle dans le paysage de l’information numérique by Caitlin Chin /Caitlin Chin is a fellow with the Strategic Technologies Program at the Center for Strategic and International Studies in Washington, D.C.

1693616282383.png

31 aout 2023

Pendant des décennies, les rédactions se sont retrouvées dans divers états de crises alors que des technologies très médiatisées apparaissaient, encore et encore, menaçant de bouleverser leurs modèles économiques. L'intelligence artificielle (IA) est le dilemme le plus récent auquel l'industrie de l'information est confrontée, en particulier après la publication par la recherche publique du ChatGPT d'OpenAI en décembre 2022.


Analyse : Quelques médias comme BuzzFeed, News Corps Australia et G/O Media ont rapidement décidé d'intégrer l'IA générative dans leur production de contenu. Début 2023, BuzzFeed a lancé des quiz alimentés par ChatGPT, des articles de voyage et un chatbot de recommandation de recettes nommé Botatouille. Beaucoup d’autres élaborent des stratégies à plus long terme, comme le Washington Post, qui a annoncé la création de deux équipes internes en mai 2023 pour explorer les futures utilisations de l’IA. Les écrivains, en revanche, se sont généralement montrés plus prudents : la Writers Guild of America, East et le Gizmodo Media Group Union ont condamné G/O Media en juillet 2023 pour avoir publié des articles générés par l’IA sans consulter au préalable les rédacteurs, mettant en garde contre « des articles peu fiables ». Les programmes d’IA connus pour créer des mensonges et plagier le travail de vrais écrivains » constituaient « une menace existentielle pour le journalisme ».

Certains développeurs d’IA tentent de devancer la controverse en présentant leurs chatbots comme des fonctionnalités à valeur ajoutée pour l’industrie de l’information – en d’autres termes, des assistants, et non des remplaçants, des journalistes humains. Au cours des derniers mois, Google aurait rencontré des médias nationaux et locaux pour présenter Genesis, un chatbot génératif à intelligence artificielle capable de rédiger des titres, des publications sur les réseaux sociaux et des articles, présentés comme un outil de productivité. En juillet 2023, OpenAI s'est associé à l'American Journalism Project pour fournir 5 millions de dollars de subventions directes afin de permettre aux rédactions locales de tester l'IA. Le même mois, il a conclu un accord avec l'Associated Press pour accéder aux articles archivés jusqu'en 1985 afin de former de grands modèles de langage (LLM) en échange de frais de licence et d'une utilisation expérimentale du logiciel OpenAI. Mais ces partenariats limités occultent l’histoire tendue de la technologie avec les rédactions, une histoire où la plupart des journalistes n’ont reçu aucune compensation pour l’utilisation de leur travail pour former des algorithmes, même si les monopoles de la technologie publicitaire numérique ont contribué à leur baisse à long terme des revenus marketing.

Un refrain courant est que les rédactions doivent évoluer pour s’adapter aux progrès technologiques, mais cette caractérisation n’est ni exacte ni juste. Même les éditeurs qui se sont adaptés aux caprices de puissantes entreprises technologiques ont dû faire face à des répercussions. Par exemple, certains médias numériques ont repensé leurs stratégies de distribution pour capitaliser sur la croissance maximale des médias sociaux au début des années 2010, permettant aux utilisateurs individuels de consulter et de partager des liens vers des articles sur des canaux décentralisés en échange d’un flux constant de clics. BuzzFeed, qui a initialement gagné du terrain grâce à la viralité des médias sociaux plutôt qu'aux abonnements imprimés traditionnels, incarne ce nouveau modèle commercial. Mais lorsque Facebook a modifié unilatéralement son algorithme de classement de contenu en janvier 2018 pour donner la priorité à l'engagement basé sur les annonceurs et les connexions, ce qui a réduit la visibilité sur les sites d'information externes, les premiers acteurs comme BuzzFeed ont été les plus durement touchés. BuzzFeed a brusquement fermé sa division d'information, lauréate du prix Pulitzer, en avril 2023, en invoquant un manque à gagner, tandis que des médias comme le New York Times, qui avait diversifié ses sources de revenus avec des abonnements traditionnels, étaient moins vulnérables aux décisions opaques des grandes entreprises technologiques.

La pérennité de l’information ne peut pas incomber uniquement aux éditeurs ; les grandes plateformes numériques doivent partager la responsabilité de comprendre et de gérer leurs impacts considérables sur la société. Pourtant, les sociétés de moteurs de recherche et de médias sociaux fonctionnent avec relativement peu d'exigences légales américaines pour intégrer l'équité et la transparence dans les algorithmes, protéger les informations personnelles sensibles lors de la diffusion de publicités personnalisées, s'engager dans des pratiques de technologie publicitaire qui favorisent une concurrence loyale avec les éditeurs de presse et atténuer la propagation de contenu préjudiciable en ligne. Sans une réglementation américaine claire pour les entreprises technologiques, la récente accélération de l’adoption de l’IA présente au moins quatre risques majeurs qui pourraient gravement compromettre à la fois la disponibilité des informations et l’accès du public à l’information à long terme



Analyses detaillees par types de plateformes >>> 45-451954_uk-round-flag-png.png


Analyses par supports tres instructives , a parcourir imperativement ! :bravo:
 
Dernière édition: