www-commits
[Top][All Lists]
Advanced

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

www/philosophy words-to-avoid.fr.html po/words-...


From: GNUN
Subject: www/philosophy words-to-avoid.fr.html po/words-...
Date: Fri, 15 Mar 2024 15:01:13 -0400 (EDT)

CVSROOT:        /web/www
Module name:    www
Changes by:     GNUN <gnun>     24/03/15 15:01:13

Modified files:
        philosophy     : words-to-avoid.fr.html 
        philosophy/po  : words-to-avoid.fr-en.html 

Log message:
        Automatic update by GNUnited Nations.

CVSWeb URLs:
http://web.cvs.savannah.gnu.org/viewcvs/www/philosophy/words-to-avoid.fr.html?cvsroot=www&r1=1.230&r2=1.231
http://web.cvs.savannah.gnu.org/viewcvs/www/philosophy/po/words-to-avoid.fr-en.html?cvsroot=www&r1=1.140&r2=1.141

Patches:
Index: words-to-avoid.fr.html
===================================================================
RCS file: /web/www/www/philosophy/words-to-avoid.fr.html,v
retrieving revision 1.230
retrieving revision 1.231
diff -u -b -r1.230 -r1.231
--- words-to-avoid.fr.html      3 Mar 2024 15:44:24 -0000       1.230
+++ words-to-avoid.fr.html      15 Mar 2024 19:01:13 -0000      1.231
@@ -951,7 +951,7 @@
 <p>
 Les problèmes éthiques posés par ChatGPT sont source de confusion parce
 qu'on parle souvent de ce système comme d'une « intelligence
-artificielle ». Est-ce que ChatGPT est un exemple d'intelligence
+artificielle ». Est-il approprié de décrire ChatGPT comme une intelligence
 artificielle ? Mérite-t-il cette appellation ? Le Professeur Sussman, du
 Labo d'intelligence artificielle du MIT, soutient que non de manière
 convaincante.</p>
@@ -964,12 +964,43 @@
 systèmes d'intelligence artificielle limitée qui sont capables de
 connaissance et de compréhension dans certains domaines limités.</p>
 <p>
-ChatGPT en revanche ne sait rien et ne comprend rien. Il ne produit rien de
-plus qu'un babillage bien lisse. Tout ce qu'il dit ou implique à propos de
-la réalité est de l'invention (à moins que l'« invention » ne demande 
plus
-de connaissance qu'il y en a vraiment dans ce système). C'est pure folie que
-de rechercher dans les résultats de ChatGPT des réponses correctes à une
-vraie question, comme beaucoup l'ont découvert.</p>
+ChatGPT en revanche ne sait rien et ne comprend rien. Il produit simplement
+un babillage bien lisse. Tout ce qu'il dit ou implique à propos de la
+réalité est de l'invention (à moins que l'« invention » demande plus 
de
+connaissance qu'il n'y en a vraiment dans ce système). C'est pure folie que
+de voir dans les résultats de ChatGPT des réponses correctes à une vraie
+question, comme beaucoup l'ont appris avec consternation.</p>
+<p>
+Voici la terminologie que nous recommandons pour désigner les systèmes basés
+sur des réseaux neuronaux entraînés.</p>
+<ul>
+<li>
+Le terme d'« Intelligence artificielle » convient pour des systèmes qui
+comprennent et font des raisonnements dans un domaine particulier, qu'il
+soit restreint ou étendu.</li>
+<li>
+« Générateur de conneries » est ce qui convient pour des systèmes 
comme
+ChatGPT qui génèrent un verbiage sans relief qui semble affirmer des choses
+sur le monde, sans comprendre la sémantique de ce qu'ils produisent.</li>
+<li>
+« Système génératif » est ce qui convient pour un système qui 
génère des
+œuvres d'imagination pour lesquelles les notions de vérité et de mensonge ne
+sont pas applicables.</li>
+<li>
+« Système de réseaux neuronaux » est ce qui convient pour un système 
qui
+entraîne et utilise des réseaux de neurones. Certains de ces systèmes sont
+de l'intelligence artificielle, tandis que d'autres sont des générateurs de
+conneries ou des systèmes génératifs.
+<p>
+Les systèmes actuels qu'on appelle souvent « intelligence artificielle »
+sont des systèmes de réseaux neuronaux, mais à l'avenir ils pourraient être
+implémentés autrement.
+</p></li>
+<li>
+« Système d'apprentissage automatique » est à peu près équivalent à
+« système de réseaux neuronaux » dans l'état actuel de la 
technologie.</li>
+</ul>
+
 <p>
 ChatGPT et consorts peuvent être appelés « systèmes de réseaux neuronaux
 génératifs », parce que c'est comme cela qu'ils fonctionnent. Ils 
entraînent
@@ -994,11 +1025,13 @@
 différentes choses. Les résultats de ces évaluations sont souvent validés 
de
 façon négligente et cela peut entraîner une injustice systématique. Mais
 puisqu'il y a prétention à la connaissance, cela représente au moins un
-essai d'intelligence artificielle. Tout comme l'intelligence naturelle,
-l'intelligence artificielle peut être tordue ou systématiquement biaisée, ou
-peut se planter. Ce qui nous intéresse ici est de savoir si ce terme
-s'applique à des situations particulières, et non si l'action effectuée est
-bonne.</p>
+essai d'intelligence artificielle.</p>
+<p>
+Sur cet exemple, nous voyons que l'intelligence artificielle peut être
+tordue ou systématiquement biaisée et qu'elle peut se planter, tout comme
+l'intelligence naturelle. Ce qui nous intéresse ici est de savoir si ce
+terme s'applique à des situations particulières et non si l'action effectuée
+est bonne.</p>
 
 <!-- GNUN-SORT-NEXT-ITEM -->
 <!-- GNUN-SORT-BEGIN-KEY -->
@@ -1662,7 +1695,7 @@
 
      There is more detail about copyright years in the GNU Maintainers
      Information document, www.gnu.org/prep/maintain. -->
-<p>Copyright &copy; 1996-2018, 2020-2023 Free Software Foundation, Inc.</p>
+<p>Copyright &copy; 1996-2018, 2020-2024 Free Software Foundation, Inc.</p>
 
 <p>Cette page peut être utilisée suivant les conditions de la licence <a
 rel="license"
@@ -1680,7 +1713,7 @@
 <p class="unprintable"><!-- timestamp start -->
 Dernière mise à jour :
 
-$Date: 2024/03/03 15:44:24 $
+$Date: 2024/03/15 19:01:13 $
 
 <!-- timestamp end -->
 </p>

Index: po/words-to-avoid.fr-en.html
===================================================================
RCS file: /web/www/www/philosophy/po/words-to-avoid.fr-en.html,v
retrieving revision 1.140
retrieving revision 1.141
diff -u -b -r1.140 -r1.141
--- po/words-to-avoid.fr-en.html        1 Jan 2024 05:42:47 -0000       1.140
+++ po/words-to-avoid.fr-en.html        15 Mar 2024 19:01:13 -0000      1.141
@@ -251,8 +251,8 @@
 <!-- GNUN-SORT-END-KEY -->
 <p>
 The moral panic over ChatGPT has led to confusion because people often
-speak of it as &ldquo;artificial intelligence.&rdquo; Is ChatGPT an
-instance of artificial intelligence?  Should we call it that?
+speak of it as &ldquo;artificial intelligence.&rdquo;  Is ChatGPT properly
+described as artificial intelligence?  Should we call it that?
 Professor Sussman of the MIT Artificial Intelligence Lab argues
 convincingly that we should not.</p>
 <p>
@@ -265,11 +265,43 @@
 certain limited fields.</p>
 <p>
 By contrast, ChatGPT knows nothing and understands nothing.  Its
-output is nothing more than smooth babbling.  Anything it states or
-implies about reality is fabrication (unless &ldquo;fabrication&rdquo;
-implies more knowledge than that system really has).  Seeking correct
-answers to any real question in ChatGPT output is utter folly, as many
-have discovered.</p>
+output is merely smooth babbling.  Anything it states or implies about
+reality is fabrication (unless &ldquo;fabrication&rdquo; implies more
+knowledge than that system really has).  Seeing a correct answer to
+any real question in ChatGPT output is folly, as many have learned to
+their dismay.</p>
+<p>
+Here is how we recommend using terminology for systems based on trained
+neural networks.</p>
+<ul>
+<li>
+&ldquo;Artificial intelligence&rdquo; is a suitable term
+for systems that understand and reason within some domain,
+whether small or large.</li>
+<li>
+&ldquo;Bullshit generators&rdquo; is a suitable term for systems like
+ChatGPT that generate smooth-sounding verbiage that appears to assert
+things about the world, without understanding that output semantically.</li>
+<li>
+&ldquo;Generative systems&rdquo; is a suitable term for systems that
+imaginatively generate works for which &ldquo;truth&rdquo; and
+&ldquo;falsehood&rdquo; are not applicable.</li>
+<li>
+&ldquo;Neural network systems&rdquo; is a suitable term for systems
+that train and use a neural net.  Some of these systems are artificial
+intelligence, while others are bullshit generators or generative
+systems.
+<p>
+The systems of today that are often called &ldquo;artificial
+intelligence&rdquo; are neural network systems, but in the
+future they may be implemented in other ways.
+</p></li>
+<li>
+&ldquo;Machine learning systems&rdquo; is basically equivalent to
+&ldquo;neural network systems&rdquo; under today's
+technology.</li>
+</ul>
+
 <p>
 We can refer to ChatGPT and such like as generative neural network
 systems, because that's how they work.  They train neural networks to
@@ -291,11 +323,12 @@
 with potential clients or people accused of various things.  These
 evaluation results are often validated carelessly and the result can
 be systematic injustice.  But since it purports to understand, it
-qualifies at least as attempted artificial intelligence.  Artificial
-intelligence can be broken, or systematically biased, or work badly,
-just as natural intelligence can be.  Here we are concerned with
-whether the term fits specific instances, not with whether it does
-good.</p>
+qualifies at least as attempted artificial intelligence.</p>
+<p>
+As that example shows, artificial intelligence can be broken, or
+systematically biased, or work badly, just as natural intelligence
+can.  Here we are concerned with whether that term fits specific
+instances, not with whether it does good.</p>
 
 <!-- GNUN-SORT-NEXT-ITEM -->
 <!-- GNUN-SORT-BEGIN-KEY -->
@@ -1622,7 +1655,7 @@
 
 <p class="unprintable">Updated:
 <!-- timestamp start -->
-$Date: 2024/01/01 05:42:47 $
+$Date: 2024/03/15 19:01:13 $
 <!-- timestamp end -->
 </p>
 </div>



reply via email to

[Prev in Thread] Current Thread [Next in Thread]