Euro-Med Human Rights Monitor
De stora teknikföretag och internationella sociala medieplattformars roll i dödandet av palestinska civila under Israels folkmordskrig mot Gazaremsan, som pågår sedan den 7 oktober 2023, måste utredas. Dessa företag måste hållas ansvariga om de visar sig vara medskyldiga eller inte ha vidtagit lämpliga försiktighetsåtgärder för att förhindra åtkomst till och utnyttjande av användarnas information. De måste se till att deras tjänster inte används i konfliktområden och att deras användares integritet respekteras.
Det finns ofta rapporter om att Israel använder ett antal artificiell intelligens-stödda tekniska system, inklusive Where’s Daddy?, Fire Factory, Gospel och Lavender, för att illegalt spåra och övervaka palestinier. Dessa system kan identifiera möjliga misstänkta och klassificera dem som legitima mål baserat på potentiellt relevant information som vanligtvis inte är relaterad till platsen eller individen i fråga, genom att leta efter likheter och mönster bland alla invånare i Gazaremsan, särskilt män, och bland medlemmar av beväpnade fraktioner.
Studier har visat att även om de är medvetna om en betydande felmarginal på grund av dessa operativsystems karaktär och deras oförmåga att tillhandahålla korrekt information – särskilt när det gäller var de som placerats på mållistan befinner sig i realtid – den israeliska armén verifierar vanligtvis inte riktigheten av informationen som tillhandahålls av dessa system.
Till exempel, Israels armé använder lavendelsystemet i stor utsträckning för att identifiera misstänkta på Gazaremsan innan de riktar sig mot dem, detta system resulterar avsiktligt i ett stort antal civila offer.
Lavendelsystemet använder sannolikhetslogiken, vilket är en utmärkande egenskap hos maskininlärningsalgoritmer. Algoritmen tittar igenom stora datamängder efter mönster som motsvarar fighters beteende, och mängden och kvaliteten på datan avgör hur framgångsrik algoritmen är med att hitta dessa mönster. Den rekommenderar sedan mål baserat på sannolikheterna.
Med oron som uttrycks angående Lavendelsystemets eventuella beroende av att spåra konton i sociala medier, har israeliska militär- och underrättelsekällor erkänt att de angriper potentiella mål utan att beakta proportionalitetsprincipen eller sidoskador.
Dessa misstankar stöds av en bok (The Human Machine Team) skriven av den nuvarande befälhavaren för den israeliska elitarméns enhet 8200, som ger instruktioner om hur man skapar en ”målmaskin” som liknar Lavender-systemet för artificiell intelligens. Boken innehåller också information om hundratals signaler som kan höja svårighetsgraden av en persons klassificering, som att byta mobiltelefon med några månaders mellanrum, flytta adresser ofta eller till och med bara gå med i samma grupp på Metas WhatsApp-applikation som en ”fighter”.
Dessutom har det nyligen avslöjats att Google och Israel samarbetar i flera teknikinitiativ, inklusive Project Nimbus, som förser den israeliska armén med verktyg för ökad övervakning och illegal datainsamling av palestinier, och därmed breddar den israeliska politiken för förnekelse och förföljelse, plus andra brott mot det palestinska folket. Särskilt detta projekt har väckt betydande kritik mot mänskliga rättigheter, vilket har fått dussintals företagsanställda att protestera och avgå, medan andra har fått sparken för sina protester.
Den israeliska armén använder också Google Fotos ansiktsigenkänningsfunktion för att hålla ett öga på civila palestinier på Gazaremsan och skapa en ”träfflista”. Den samlar så många bilder som möjligt från händelsen den 7 oktober, känd som Al-Aqsa-floden, under vilken palestinska ansikten var synliga när de stormade separationsstängslet och gick in i bosättningarna. Denna teknik används sedan för att sortera foton och lagra bilder av ansikten, vilket resulterade i att tusentals palestinier nyligen arresterades från Gazaremsan, i strid med företagets explicita regler och FN:s vägledande principer för företag och mänskliga rättigheter.
Euro-Med Monitors fältteam har dokumenterat berättelser om palestinska civila som, som en konsekvens av deras sociala medieaktivitet, har pekats ut som misstänkta av Israel, trots att de inte vidtagit några militära åtgärder.
En ung palestinsk man som begärde att bli identifierad endast som ”A.F.” på grund av säkerhetsproblem, till exempel, skadades allvarligt i en israelisk bombning som riktade sig mot ett bostadshus i Gazas stadsdel Al-Sabra.
Huset blev en tavla kort efter att A.F. lagt upp ett videoklipp på Instagram, som ägs av Meta, där han skämtade om att han var i ett ”fältspaningsuppdrag”.
Hans släkting berättade för Euro-Med Monitor att A.F. bara hade försökt härma pressreportrar när han postade det korta videoklippet på sitt personliga Instagramkonto. Plötsligt blev A.F. emellertid måltavla av ett israeliskt spaningsplan när han var på husets tak.
En separat israelisk bombning den 16 april krävde sex unga palestinier som hade samlats för att få tillgång till internettjänster. Ett av offren använde en gruppchatt på WhatsApp – ett Meta-dotterbolag – för att rapportera nyheter om Sheikh Radwan-kvarteret i Gaza City.
Den avlidne mannens släkting, som begärde anonymitet på grund av säkerhetsrädsla, informerade Euro-Med Monitor om att offret befann sig nära internetåtkomstpunkten när gruppen direkt träffades av en missil från ett israeliskt spaningsplan. Offret delade frivilligt nyheter i familjer och offentliga grupper på WhatsApp-applikationen om de israeliska attackerna och den humanitära situationen i Sheikh Radwan.
Den israeliska arméns hemliga strategi att inleda extremt skadliga luft- och artilleriattacker baserat på data som inte uppfyller minimistandarden för korrekt målbedömning, allt från mobiltelefonregister och foton till kontakt- och kommunikationsmönster på sociala medier, allt inom det större sammanhanget av en otroligt slumpartat mordprogram, är djupt oroande.
Bevisen som presenteras av globala teknikexperter pekar på ett troligt samband mellan den israeliska arméns användning av lavendelsystemet – som har använts för att identifiera mål i Israels militära angrepp på Gazaremsan – och Meta-företaget. Detta innebär att den israeliska armén potentiellt riktade in sig på individer bara för att de var i WhatsApp-grupper med andra personer på listan över misstänkta. Dessutom ifrågasätter experterna hur Israel kunde ha fått tag på dessa uppgifter utan att Meta avslöjat det.
Tidigare har den brittiska tidningen The Guardian avslöjat Israels användning av artificiell intelligens (lavendel) för att mörda ett stort antal palestinska civila. Den israeliska militären använde maskininlärningssystem för att identifiera potentiella ”lågrankade” krigare, i syfte att rikta in dem utan att ta hänsyn till nivån på tillåten sidoskada. En ”toleransmarginal” antogs, som möjliggjorde döden av 20 civila för varje mål, när man riktade sig mot ”högre kämpar” tillät denna toleransmarginal 100 människors död för varje kämpe.
Google, Meta och andra teknik- och sociala medieföretag kan ha samarbetat med Israel i brott och kränkningar mot det palestinska folket, inklusive utomrättsliga mord, i strid med internationell lag och dessa företags uttalade åtaganden om mänskliga rättigheter.
Sociala nätverk bör inte släppa den här typen av personuppgifter om sina användare eller delta i det israeliska folkmordet mot civila palestinier i Gazaremsan. En internationell utredning krävs för att ge garantier för ansvarsskyldighet för de ansvariga och rättvisa för offren.
Metas öppna och uppenbara partiskhet mot Israel, dess betydande undertryckande av innehåll som stöder den palestinska saken och dess politik att kväva kritiken av Israels brott – inklusive rykten om nära band mellan topptjänstemän i Meta och Israel – tyder på företagets rimliga inblandning i dödandet av palestinier. civila.
Med tanke på riskerna med att underlåta att vidta rimliga åtgärder för att visa att målet är legitimt enligt internationell humanitär rätt, måste de tidigare nämnda företagen fullt ut åta sig att avsluta allt samarbete med den israeliska militären och ge Israel tillgång till data och information som kränker palestinska rättigheter och sätter sina liv i fara.
Israels underlåtenhet att utöva due diligence och ta hänsyn till mänskliga rättigheter när den använder artificiell intelligens för militära ändamål måste omedelbart utredas, liksom dess underlåtenhet att följa internationell rätt och internationell humanitär rätt.
Dessa företag måste omedelbart ta upp all information som har cirkulerat om deras inblandning i israeliska brott mot det palestinska folket. Seriösa utredningar angående deras policy och praxis i samband med israeliska brott och kränkningar av mänskliga rättigheter måste inledas vid behov, och företag måste hållas ansvariga om de visar sig vara medskyldiga eller har underlåtit att vidta rimliga försiktighetsåtgärder för att förhindra utnyttjande av användarinformation för kriminella aktiviteter.
Originaltext: Urgent need to investigate role of technology, social media companies in killing Gazan civilians