• silent2k@lemmy.world
    link
    fedilink
    Deutsch
    arrow-up
    2
    arrow-down
    3
    ·
    1 year ago

    Verstehe deine Logik nicht. Was hat die Software damit zu tun dass Menschen Fehler machen? Sie kommt mit den gemachten Fehlern nicht klar, weil Fehler unbekannte Muster sind.

      • silent2k@lemmy.world
        link
        fedilink
        Deutsch
        arrow-up
        2
        arrow-down
        3
        ·
        1 year ago

        Joa,haste recht. Es sind aber viele Menschen und die ki lernt ja auch mit. Die Software kann man ja testen. Bei Menschen lernt jeder fahrer nur einmal wenn es ganz blöd läuft. Mischbetrieb sehe ich aber kurzfristig auch nicht. Wenn man alle Menschen den Führerschein wegnehmen würde und ki alles machen lässt, würde sich die unfallrate auf fast 0 reduzieren. Ki hält sich halt an regeln und säuft nicht. Aber hätte hätte fahrradkette…

        • the_seven_sins@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          2
          ·
          1 year ago

          Ki hält sich halt an regeln und säuft nicht.

          Ich glaube, du nutzt den Begriff KI hier falsch. Was du vermutlich meinst ist schlicht ‘Software’. Würdest du ein Auto nach dem Modell von ChatGPT ‘trainieren’, wäre das Verhalten am Ende quasi genauso unvorhersehbar wie das eines Menschen.

          • silent2k@lemmy.world
            link
            fedilink
            Deutsch
            arrow-up
            1
            arrow-down
            1
            ·
            1 year ago

            KI ist auch nur Software aber war nur zu faul zu tippen…Selbstlernende ki von Menschen lernen zu lassen wäre tatsächlich fahrlässig.