Registriert seit: 08.09.2016
Version(en): 2010
Hi Leute,
ich hoffe einer kann mir bei meinem Problem helfen.
Ich habe ein Tabellenblatt mit ca. 9.000 Kundendaten die jeweils eine ungeordnete Nummer zwischen 1 und 6.000 haben. D.H. dass 3.000 eine Nummer haben, die bereits vergeben ist.
Ich möchte, dass der Datensatz der in der Reihenfolge der Zeilen als zweites kommt und eine Nummerierung hat die bereits ein Datensatz davor hatte, gelöscht wird. Leider sind die Datensätze nicht komplett identisch, weshalb die Lösung über "Duplikate entfernen" leider nicht funktioniert.
Über "bedingte Formatierung" und dann "doppelte markieren" funktioniert es leider auch nicht, da beide Datensätze dann als doppelt markiert sind und ich ja nur den zweiten löschen möchte, weshalb ich das dann alles nochmal händisch durchgehen müsste.
Ich hoffe ihr versteht mein Anliegen, das Erklären ist mir leider sehr schwer gefallen :s
Wäre super wenn ihr eine Lösung kennt!
Liebe Grüße
Lasse
Registriert seit: 30.05.2016
Version(en): 2013
Hi,
was heißt die Datenätze sind nicht komplett identisch ? Wie weis man dass wie nicht identische Datensätze zusammengehören ?
lade am besten deine Datei hier hoch.
Registriert seit: 06.12.2015
Version(en): 2016
Hallo,
angenommen, die Kd-Nr stehen in Spalte A, dann schreibe in eine freie Spalte die Formel
Code:
=zählenwenn(a1;$a$1:a1) > 1
und ziehe/kopiere die Formel per doppelklick nach unten. Alle Zellen mit "Wahr" markieren die zweite oder höhere Dupliezierung.
mfg
Registriert seit: 10.04.2014
Version(en): Microsoft 365, mtl. Kanal
08.09.2016, 18:12
(Dieser Beitrag wurde zuletzt bearbeitet: 08.09.2016, 18:13 von WillWissen.)
Hi,
so wird ein Schuh draus, falls tatsächlich die ID-Nr. das einzige Erkennungsmerkmal ist.
Code:
=ZÄHLENWENN($A$1:A1;A1)>1
Nach WAHR filtern und die Zeilen löschen.
Gruß Günter
Jeder Fehler erscheint unglaublich dumm, wenn andere ihn begehen.
angebl. von Georg Christoph Lichtenberg (1742-1799)
Registriert seit: 17.04.2014
Version(en): MS Office 365(32)
Hi Günter,
ich sehe da keinen Unterschied zu Fenneks Formel.
Gruß Uwe
Registriert seit: 10.04.2014
Version(en): Microsoft 365, mtl. Kanal
08.09.2016, 18:37
(Dieser Beitrag wurde zuletzt bearbeitet: 08.09.2016, 18:37 von WillWissen.)
Hi Uwe,
ein kleiner, aber feiner (entscheidender) Unterschied:
Fennek:
Code:
=zählenwenn(a1;$a$1:a1) > 1
Meine:
Code:
=ZÄHLENWENN($A$1:A1;A1)>1
Und ich meine jetzt hier nicht die Groß-/Kleinschreibung :32: Tipp: schau mal auf die Syntax
Gruß Günter
Jeder Fehler erscheint unglaublich dumm, wenn andere ihn begehen.
angebl. von Georg Christoph Lichtenberg (1742-1799)
Registriert seit: 17.04.2014
Version(en): MS Office 365(32)
Hi Günter,
(08.09.2016, 18:37)WillWissen schrieb: Hi Uwe,
ein kleiner, aber feiner (entscheidender) Unterschied:
Fennek:
Code:
=zählenwenn(a1;$a$1:a1) > 1
Meine:
Code:
=ZÄHLENWENN($A$1:A1;A1)>1
Und ich meine jetzt hier nicht die Groß-/Kleinschreibung :32: Tipp: schau mal auf die Syntax
danke für die Aufklärung ...
Gruß Uwe
Registriert seit: 10.04.2014
Version(en): Microsoft 365, mtl. Kanal
Hi Uwe,
yep, du hast einen ScrShot gemacht, bevor ich gespannt hatte, dass ich versehentlich Fenneks Formel kopiert habe. Zu Testzwwecken hatte ich sie direkt neben meine gesetzt. Da ich aber lange Zeit die Beiträge nicht aktualisiert hatte, ist mir dein Beitrag vor meiner Aktualisierung entgangen.
Gruß Günter
Jeder Fehler erscheint unglaublich dumm, wenn andere ihn begehen.
angebl. von Georg Christoph Lichtenberg (1742-1799)
Registriert seit: 08.09.2016
Version(en): 2010
Vielen Dank Leute, es hat super funktioniert!
Ihr habt mir den Tag gerettet.
Schönes Wochenende
Lasse
Registriert seit: 10.04.2014
Version(en): 2016 + 365
Hi,
(08.09.2016, 15:42)Lasse95 schrieb: Leider sind die Datensätze nicht komplett identisch, weshalb die Lösung über "Duplikate entfernen" leider nicht funktioniert.
das verstehe ich nicht! Ich dachte immer, das "Duplikate entfernen" benötigt nur in einer Spalte Duplikate und unabhängig davon werden dann die Inhalte in den anderen Spalten auch mit gelöscht. Das ist doch genau für solche Fälle da!
Da muß doch dann gar nicht mit Formeln rumgefummelt werden.