• silent2k@lemmy.world
    link
    fedilink
    Deutsch
    arrow-up
    34
    arrow-down
    14
    ·
    edit-2
    1 year ago

    Menschen taugen als Autofahrer nicht. Scheitern an Banalitäten. Fahren in Kindergruppen. Lernen fast nie aus Fehlern und lassen andere nicht an Fehlern teilhaben. Außerdem erkennen Sie nicht wann sie zu alt sind oder fahren besoffen.

      • silent2k@lemmy.world
        link
        fedilink
        Deutsch
        arrow-up
        4
        arrow-down
        9
        ·
        1 year ago

        Das größte Problem für Software in autos sind Menschen die sich nicht an regeln halten.

          • silent2k@lemmy.world
            link
            fedilink
            Deutsch
            arrow-up
            2
            arrow-down
            3
            ·
            1 year ago

            Verstehe deine Logik nicht. Was hat die Software damit zu tun dass Menschen Fehler machen? Sie kommt mit den gemachten Fehlern nicht klar, weil Fehler unbekannte Muster sind.

              • silent2k@lemmy.world
                link
                fedilink
                Deutsch
                arrow-up
                2
                arrow-down
                3
                ·
                1 year ago

                Joa,haste recht. Es sind aber viele Menschen und die ki lernt ja auch mit. Die Software kann man ja testen. Bei Menschen lernt jeder fahrer nur einmal wenn es ganz blöd läuft. Mischbetrieb sehe ich aber kurzfristig auch nicht. Wenn man alle Menschen den Führerschein wegnehmen würde und ki alles machen lässt, würde sich die unfallrate auf fast 0 reduzieren. Ki hält sich halt an regeln und säuft nicht. Aber hätte hätte fahrradkette…

                • the_seven_sins@feddit.de
                  link
                  fedilink
                  Deutsch
                  arrow-up
                  2
                  ·
                  1 year ago

                  Ki hält sich halt an regeln und säuft nicht.

                  Ich glaube, du nutzt den Begriff KI hier falsch. Was du vermutlich meinst ist schlicht ‘Software’. Würdest du ein Auto nach dem Modell von ChatGPT ‘trainieren’, wäre das Verhalten am Ende quasi genauso unvorhersehbar wie das eines Menschen.

                  • silent2k@lemmy.world
                    link
                    fedilink
                    Deutsch
                    arrow-up
                    1
                    arrow-down
                    1
                    ·
                    1 year ago

                    KI ist auch nur Software aber war nur zu faul zu tippen…Selbstlernende ki von Menschen lernen zu lassen wäre tatsächlich fahrlässig.

        • the_seven_sins@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          3
          ·
          edit-2
          1 year ago

          Das größte Problem für Software in autos sind Menschen die sich nicht an regeln halten.

          = Menschen allgemein.

          Wenn wir jetzt den Faktor Mensch raus haben wollen bräuchten wie in der Konsequenz Beschrankte Zebrastreifen und müssen Radfahren verbieten.

    • Tiptopit@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      9
      arrow-down
      7
      ·
      1 year ago

      Menschen kann ich für ihre Untaten aber belangen. Autonome Autos nicht.

        • Tiptopit@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          2
          ·
          1 year ago

          Kann aber dabei helfen mehr Tote zu verhindern.

          Menschen halten sich an Regeln, weil sie sie im Idealfall als sinnvoll erachten oder Angst vor den Konsequenzen haben. Eine Maschine kann beides nicht, die versucht sich nur so gut es geht sich an Regeln zu halten.

          Wenn sich in ein Autonomes System ein Fehler einschleicht, hat man den gleich tausendfach auf den Straßen. Irgendwie beunruhigend.

          • Tvkan@feddit.de
            link
            fedilink
            Deutsch
            arrow-up
            4
            ·
            1 year ago

            Und dafür haftet dann der Hersteller.

            Dass hohe Strafen nach Verletzungen oder Todesfällen da einen merklichen Einfluss haben werden glaube ich nicht. Autos in den 1970ern waren extrem unsicher, die Leute sind aber nicht vorsichtiger gefahren als heute, sondern wir hatten einfach 20.000 Verkehrstote pro Jahr allein im Westen, bei viel weniger KFZ und Personenkilometern. Individuen gehen immer davon aus, dass sie schon keinen Unfall haben werden. Viel wichtiger ist, risikoreiches Verhalten konsequent zu ahnden.

            Perverserweise kann ich mir sogar vorstellen, dass die eiskalten Produktionskosten-vs-Schadenersatz-Berechnungen der BWL-Abteilungen ein effektiv größeres Interesse an der Unfallvermeidung haben als Privatpersonen.

            Wenn sich in ein Autonomes System ein Fehler einschleicht, hat man den gleich tausendfach auf den Straßen. Irgendwie beunruhigend.

            Menschen haben auch haufenweise Fehler, und die haben wir millionenfach auf den Straßen. Bei Schnee und Nebel sind wird blind, wir werden müde und gestresst und abgelenkt, spielen am Handy, überschätzen uns und versuchen andere zu beeindrucken. Die Hürde fürs autonome Fahren ist nicht “fehlerlos”, sondern “besser als der Mensch”.

            • Tiptopit@feddit.de
              link
              fedilink
              Deutsch
              arrow-up
              1
              ·
              1 year ago

              Ich glaube mein Problem ist größtenteils fehlendes Vertrauen in Hersteller und Bedenken, dass sich Hersteller nicht damit zufrieden geben wollen, für Fehler zu haften. Da mag die Parteispende günstiger sein.

              Aber ja, grundsätzlich hast du da schon Recht.