• silent2k@lemmy.world
      link
      fedilink
      Deutsch
      arrow-up
      2
      arrow-down
      3
      ·
      1 year ago

      Verstehe deine Logik nicht. Was hat die Software damit zu tun dass Menschen Fehler machen? Sie kommt mit den gemachten Fehlern nicht klar, weil Fehler unbekannte Muster sind.

        • silent2k@lemmy.world
          link
          fedilink
          Deutsch
          arrow-up
          2
          arrow-down
          3
          ·
          1 year ago

          Joa,haste recht. Es sind aber viele Menschen und die ki lernt ja auch mit. Die Software kann man ja testen. Bei Menschen lernt jeder fahrer nur einmal wenn es ganz blöd läuft. Mischbetrieb sehe ich aber kurzfristig auch nicht. Wenn man alle Menschen den Führerschein wegnehmen würde und ki alles machen lässt, würde sich die unfallrate auf fast 0 reduzieren. Ki hält sich halt an regeln und säuft nicht. Aber hätte hätte fahrradkette…

          • the_seven_sins@feddit.de
            link
            fedilink
            Deutsch
            arrow-up
            2
            ·
            1 year ago

            Ki hält sich halt an regeln und säuft nicht.

            Ich glaube, du nutzt den Begriff KI hier falsch. Was du vermutlich meinst ist schlicht ‘Software’. Würdest du ein Auto nach dem Modell von ChatGPT ‘trainieren’, wäre das Verhalten am Ende quasi genauso unvorhersehbar wie das eines Menschen.

            • silent2k@lemmy.world
              link
              fedilink
              Deutsch
              arrow-up
              1
              arrow-down
              1
              ·
              1 year ago

              KI ist auch nur Software aber war nur zu faul zu tippen…Selbstlernende ki von Menschen lernen zu lassen wäre tatsächlich fahrlässig.