Drönare och självkörande bilar som vapen: varför vi behöver vara rädda för hackare
Drönare och självkörande bilar som vapen: varför vi behöver vara rädda för hackare
Anonim

Om artificiell intelligens hamnar i orätta händer kan den civiliserade världen störta i kaos.

Drönare och självkörande bilar som vapen: varför vi behöver vara rädda för hackare
Drönare och självkörande bilar som vapen: varför vi behöver vara rädda för hackare

Ingen kommer att förneka att artificiell intelligens kan ta våra liv till nästa nivå. AI kan lösa många problem som ligger utanför människans makt.

Men många tror att superintelligensen definitivt kommer att vilja förstöra oss, som SkyNet, eller kommer att börja utföra experiment på människor, som GLDoS från Portal-spelet. Det ironiska är att bara människor kan göra artificiell intelligens bra eller ont.

Varför artificiell intelligens kan vara ett allvarligt hot
Varför artificiell intelligens kan vara ett allvarligt hot

Forskare från Yale University, Oxford, Cambridge och OpenAI har publicerat en rapport om missbruk av artificiell intelligens. Den säger att den verkliga faran kommer från hackare. Med hjälp av skadlig kod kan de störa driften av automatiserade system under kontroll av AI.

Forskare fruktar att välmenande teknologier kommer att skadas. Till exempel kan övervakningsutrustning användas inte bara för att fånga terrorister, utan också för att spionera på vanliga medborgare. Forskare är också oroade över kommersiella drönare som levererar mat. Det är lätt att fånga upp dem och plantera något explosivt.

Ett annat scenario för den destruktiva användningen av AI är självkörande bilar. Det räcker med att ändra några rader kod, och maskiner börjar ignorera säkerhetsreglerna.

Varför artificiell intelligens kan vara ett allvarligt hot
Varför artificiell intelligens kan vara ett allvarligt hot

Forskare tror att hotet kan vara digitalt, fysiskt och politiskt.

  • Artificiell intelligens används redan för att studera sårbarheterna hos olika programvarukoder. I framtiden kan hackare skapa en bot som kommer att kringgå alla skydd.
  • Med hjälp av AI kan en person automatisera många processer: till exempel styra en svärm av drönare eller en grupp bilar.
  • Med hjälp av teknologier som DeepFake är det möjligt att påverka statens politiska liv genom att sprida falsk information om världsledare som använder bots på Internet.

Dessa skrämmande exempel existerar än så länge bara som en hypotes. Författarna till studien föreslår inte ett fullständigt förkastande av teknik. Istället anser de att nationella regeringar och stora företag bör ta hand om säkerheten medan AI-branschen fortfarande är i sin linda.

Politiker måste studera teknik och arbeta med experter på området för att effektivt reglera skapandet och användningen av artificiell intelligens.

Utvecklare måste i sin tur bedöma faran med högteknologi, förutse de värsta konsekvenserna och varna världsledare för dem. Rapporten uppmanar AI-utvecklare att samarbeta med säkerhetsexperter inom andra områden och se om principerna som säkerställer säkerheten för dessa teknologier kan användas för att skydda artificiell intelligens.

Den fullständiga rapporten beskriver problemet mer detaljerat, men slutsatsen är att AI är ett kraftfullt verktyg. Alla intresserade bör studera den nya tekniken och se till att den inte används i kriminella syften.

Rekommenderad: