[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
www/philosophy words-to-avoid.fr.html po/words-...
|
From: |
GNUN |
|
Subject: |
www/philosophy words-to-avoid.fr.html po/words-... |
|
Date: |
Fri, 15 Mar 2024 15:01:13 -0400 (EDT) |
CVSROOT: /web/www
Module name: www
Changes by: GNUN <gnun> 24/03/15 15:01:13
Modified files:
philosophy : words-to-avoid.fr.html
philosophy/po : words-to-avoid.fr-en.html
Log message:
Automatic update by GNUnited Nations.
CVSWeb URLs:
http://web.cvs.savannah.gnu.org/viewcvs/www/philosophy/words-to-avoid.fr.html?cvsroot=www&r1=1.230&r2=1.231
http://web.cvs.savannah.gnu.org/viewcvs/www/philosophy/po/words-to-avoid.fr-en.html?cvsroot=www&r1=1.140&r2=1.141
Patches:
Index: words-to-avoid.fr.html
===================================================================
RCS file: /web/www/www/philosophy/words-to-avoid.fr.html,v
retrieving revision 1.230
retrieving revision 1.231
diff -u -b -r1.230 -r1.231
--- words-to-avoid.fr.html 3 Mar 2024 15:44:24 -0000 1.230
+++ words-to-avoid.fr.html 15 Mar 2024 19:01:13 -0000 1.231
@@ -951,7 +951,7 @@
<p>
Les problèmes éthiques posés par ChatGPT sont source de confusion parce
qu'on parle souvent de ce système comme d'une «â¯intelligence
-artificielleâ¯Â». Est-ce que ChatGPT est un exemple d'intelligence
+artificielleâ¯Â». Est-il approprié de décrire ChatGPT comme une intelligence
artificielle� Mérite-t-il cette appellation� Le Professeur Sussman, du
Labo d'intelligence artificielle du MIT, soutient que non de manière
convaincante.</p>
@@ -964,12 +964,43 @@
systèmes d'intelligence artificielle limitée qui sont capables de
connaissance et de compréhension dans certains domaines limités.</p>
<p>
-ChatGPT en revanche ne sait rien et ne comprend rien. Il ne produit rien de
-plus qu'un babillage bien lisse. Tout ce qu'il dit ou implique à propos de
-la réalité est de l'invention (à moins que l'«â¯inventionâ¯Â» ne demande
plus
-de connaissance qu'il y en a vraiment dans ce système). C'est pure folie que
-de rechercher dans les résultats de ChatGPT des réponses correctes à une
-vraie question, comme beaucoup l'ont découvert.</p>
+ChatGPT en revanche ne sait rien et ne comprend rien. Il produit simplement
+un babillage bien lisse. Tout ce qu'il dit ou implique à propos de la
+réalité est de l'invention (à moins que l'«â¯inventionâ¯Â» demande plus
de
+connaissance qu'il n'y en a vraiment dans ce système). C'est pure folie que
+de voir dans les résultats de ChatGPT des réponses correctes à une vraie
+question, comme beaucoup l'ont appris avec consternation.</p>
+<p>
+Voici la terminologie que nous recommandons pour désigner les systèmes basés
+sur des réseaux neuronaux entraînés.</p>
+<ul>
+<li>
+Le terme d'«â¯Intelligence artificielleâ¯Â» convient pour des systèmes qui
+comprennent et font des raisonnements dans un domaine particulier, qu'il
+soit restreint ou étendu.</li>
+<li>
+«â¯Générateur de conneriesâ¯Â» est ce qui convient pour des systèmes
comme
+ChatGPT qui génèrent un verbiage sans relief qui semble affirmer des choses
+sur le monde, sans comprendre la sémantique de ce qu'ils produisent.</li>
+<li>
+«â¯Système génératifâ¯Â» est ce qui convient pour un système qui
génère des
+Åuvres d'imagination pour lesquelles les notions de vérité et de mensonge ne
+sont pas applicables.</li>
+<li>
+«â¯Système de réseaux neuronauxâ¯Â» est ce qui convient pour un système
qui
+entraîne et utilise des réseaux de neurones. Certains de ces systèmes sont
+de l'intelligence artificielle, tandis que d'autres sont des générateurs de
+conneries ou des systèmes génératifs.
+<p>
+Les systèmes actuels qu'on appelle souvent «â¯intelligence artificielleâ¯Â»
+sont des systèmes de réseaux neuronaux, mais à l'avenir ils pourraient être
+implémentés autrement.
+</p></li>
+<li>
+«â¯Système d'apprentissage automatiqueâ¯Â» est à peu près équivalent Ã
+«â¯système de réseaux neuronauxâ¯Â» dans l'état actuel de la
technologie.</li>
+</ul>
+
<p>
ChatGPT et consorts peuvent être appelés «â¯systèmes de réseaux neuronaux
génératifsâ¯Â», parce que c'est comme cela qu'ils fonctionnent. Ils
entraînent
@@ -994,11 +1025,13 @@
différentes choses. Les résultats de ces évaluations sont souvent validés
de
façon négligente et cela peut entraîner une injustice systématique. Mais
puisqu'il y a prétention à la connaissance, cela représente au moins un
-essai d'intelligence artificielle. Tout comme l'intelligence naturelle,
-l'intelligence artificielle peut être tordue ou systématiquement biaisée, ou
-peut se planter. Ce qui nous intéresse ici est de savoir si ce terme
-s'applique à des situations particulières, et non si l'action effectuée est
-bonne.</p>
+essai d'intelligence artificielle.</p>
+<p>
+Sur cet exemple, nous voyons que l'intelligence artificielle peut être
+tordue ou systématiquement biaisée et qu'elle peut se planter, tout comme
+l'intelligence naturelle. Ce qui nous intéresse ici est de savoir si ce
+terme s'applique à des situations particulières et non si l'action effectuée
+est bonne.</p>
<!-- GNUN-SORT-NEXT-ITEM -->
<!-- GNUN-SORT-BEGIN-KEY -->
@@ -1662,7 +1695,7 @@
There is more detail about copyright years in the GNU Maintainers
Information document, www.gnu.org/prep/maintain. -->
-<p>Copyright © 1996-2018, 2020-2023 Free Software Foundation, Inc.</p>
+<p>Copyright © 1996-2018, 2020-2024 Free Software Foundation, Inc.</p>
<p>Cette page peut être utilisée suivant les conditions de la licence <a
rel="license"
@@ -1680,7 +1713,7 @@
<p class="unprintable"><!-- timestamp start -->
Dernière mise à jourâ¯:
-$Date: 2024/03/03 15:44:24 $
+$Date: 2024/03/15 19:01:13 $
<!-- timestamp end -->
</p>
Index: po/words-to-avoid.fr-en.html
===================================================================
RCS file: /web/www/www/philosophy/po/words-to-avoid.fr-en.html,v
retrieving revision 1.140
retrieving revision 1.141
diff -u -b -r1.140 -r1.141
--- po/words-to-avoid.fr-en.html 1 Jan 2024 05:42:47 -0000 1.140
+++ po/words-to-avoid.fr-en.html 15 Mar 2024 19:01:13 -0000 1.141
@@ -251,8 +251,8 @@
<!-- GNUN-SORT-END-KEY -->
<p>
The moral panic over ChatGPT has led to confusion because people often
-speak of it as “artificial intelligence.” Is ChatGPT an
-instance of artificial intelligence? Should we call it that?
+speak of it as “artificial intelligence.” Is ChatGPT properly
+described as artificial intelligence? Should we call it that?
Professor Sussman of the MIT Artificial Intelligence Lab argues
convincingly that we should not.</p>
<p>
@@ -265,11 +265,43 @@
certain limited fields.</p>
<p>
By contrast, ChatGPT knows nothing and understands nothing. Its
-output is nothing more than smooth babbling. Anything it states or
-implies about reality is fabrication (unless “fabrication”
-implies more knowledge than that system really has). Seeking correct
-answers to any real question in ChatGPT output is utter folly, as many
-have discovered.</p>
+output is merely smooth babbling. Anything it states or implies about
+reality is fabrication (unless “fabrication” implies more
+knowledge than that system really has). Seeing a correct answer to
+any real question in ChatGPT output is folly, as many have learned to
+their dismay.</p>
+<p>
+Here is how we recommend using terminology for systems based on trained
+neural networks.</p>
+<ul>
+<li>
+“Artificial intelligence” is a suitable term
+for systems that understand and reason within some domain,
+whether small or large.</li>
+<li>
+“Bullshit generators” is a suitable term for systems like
+ChatGPT that generate smooth-sounding verbiage that appears to assert
+things about the world, without understanding that output semantically.</li>
+<li>
+“Generative systems” is a suitable term for systems that
+imaginatively generate works for which “truth” and
+“falsehood” are not applicable.</li>
+<li>
+“Neural network systems” is a suitable term for systems
+that train and use a neural net. Some of these systems are artificial
+intelligence, while others are bullshit generators or generative
+systems.
+<p>
+The systems of today that are often called “artificial
+intelligence” are neural network systems, but in the
+future they may be implemented in other ways.
+</p></li>
+<li>
+“Machine learning systems” is basically equivalent to
+“neural network systems” under today's
+technology.</li>
+</ul>
+
<p>
We can refer to ChatGPT and such like as generative neural network
systems, because that's how they work. They train neural networks to
@@ -291,11 +323,12 @@
with potential clients or people accused of various things. These
evaluation results are often validated carelessly and the result can
be systematic injustice. But since it purports to understand, it
-qualifies at least as attempted artificial intelligence. Artificial
-intelligence can be broken, or systematically biased, or work badly,
-just as natural intelligence can be. Here we are concerned with
-whether the term fits specific instances, not with whether it does
-good.</p>
+qualifies at least as attempted artificial intelligence.</p>
+<p>
+As that example shows, artificial intelligence can be broken, or
+systematically biased, or work badly, just as natural intelligence
+can. Here we are concerned with whether that term fits specific
+instances, not with whether it does good.</p>
<!-- GNUN-SORT-NEXT-ITEM -->
<!-- GNUN-SORT-BEGIN-KEY -->
@@ -1622,7 +1655,7 @@
<p class="unprintable">Updated:
<!-- timestamp start -->
-$Date: 2024/01/01 05:42:47 $
+$Date: 2024/03/15 19:01:13 $
<!-- timestamp end -->
</p>
</div>
| [Prev in Thread] |
Current Thread |
[Next in Thread] |
- www/philosophy words-to-avoid.fr.html po/words-...,
GNUN <=