banner
Heim / Blog / Baubewegungsdatenbibliothek: ein integrierter Bewegungsdatensatz für on
Blog

Baubewegungsdatenbibliothek: ein integrierter Bewegungsdatensatz für on

Oct 15, 2023Oct 15, 2023

Scientific Data Band 9, Artikelnummer: 726 (2022) Diesen Artikel zitieren

2108 Zugriffe

1 Altmetrisch

Details zu den Metriken

Die Identifizierung der Tätigkeiten der Arbeiter ist von entscheidender Bedeutung für die Gewährleistung der Sicherheit und Produktivität der menschlichen Arbeitskräfte auf Baustellen. In vielen Studien werden visions- oder trägheitsbasierte Sensoren eingesetzt, um menschliche 3D-Skelette für die automatisierte Haltungs- und Aktivitätserkennung zu konstruieren. Forscher haben riesige und heterogene Datensätze für generische Bewegungen und auf diesen Datensätzen basierende künstlich-intelligente Modelle entwickelt. Der baubezogene Bewegungsdatensatz und die Beschriftungen sollten jedoch speziell gestaltet werden, da Bauarbeiter häufig unangenehmen Körperhaltungen und intensiven körperlichen Aufgaben ausgesetzt sind. Diese Studie entwickelte einen kleinen baubezogenen Aktivitätsdatensatz mit einem Laborexperiment und implementierte die Datensätze, um eine umfangreiche Baubewegungsdatenbibliothek (CML) zur Aktivitätserkennung manuell zu kennzeichnen. Der entwickelte CML-Datensatz enthält 225 Arten von Aktivitäten und 146.480 Stichproben; Darunter stehen 60 Arten von Aktivitäten und 61.275 Stichproben in engem Zusammenhang mit Bauaktivitäten. Um den Datensatz zu verifizieren, wurden fünf weit verbreitete Deep-Learning-Algorithmen eingesetzt, um den Datensatz zu untersuchen, und die Benutzerfreundlichkeit, Qualität und Angemessenheit wurden berichtet. Die durchschnittliche Genauigkeit von Modellen ohne Tuning kann 74,62 % bis 83,92 % erreichen.

Messungen)

Bewegung der Bauarbeiter

Technologietyp(en)

tragbares Bewegungserkennungssystem

Faktortyp(en)

Position der Skelettgelenke

Probenmerkmal – Organismus

Bauarbeiter

Probeneigenschaft – Umgebung

Baustelle

Die Überwachung der Arbeiteraktivitäten ist für die Gewährleistung der Sicherheit und die Verfolgung der Produktivität von Bauprojekten von entscheidender Bedeutung, da fast 80 % der tödlichen und nicht tödlichen Verletzungen durch unsicheres Verhalten auf der Baustelle verursacht werden1. Darüber hinaus haben Aktivitäten, die mit ungünstigen Körperhaltungen, sich wiederholenden Bewegungen und starken Anstrengungen einhergehen, unmerkliche, aber schwerwiegende Auswirkungen auf die langfristige Gesundheit von Bauarbeitern, wie beispielsweise arbeitsbedingte Muskel-Skelett-Erkrankungen (WMSDs)2,3. Herkömmliche verhaltensbasierte Sicherheitsmanagementansätze4 basieren auf Selbstberichten, manueller Beobachtung und direkter Messung, um unsichere Verhaltensweisen zu identifizieren5,6,7. Ähnliche Ansätze sind auch für die Bewertung der Arbeitsproduktivität beliebt8. Aufgrund des hohen Zeit- und Arbeitsaufwands9 haben Forscher automatisierte und rechnerische Lösungen mit kostengünstigen und einfach zu verwendenden Sensoren vorgeschlagen. Menschliche Aktivitäten können als Sequenzen von 3D-Skelettmodellen dargestellt werden, die normalerweise aus Bewegungserfassungsdatensätzen erstellt werden können. Mit Deep Learning und bahnbasierten Methoden10,11 können die Sensorausgaben, wie RBG-Videos, RGB-Tiefenvideos (RGBD) und Trägheitssignale, in menschliche Körperhaltungen und Aktivitäten übersetzt werden12. Diese Methoden wurden in verschiedenen Branchen erfolgreich implementiert, beispielsweise im Gesundheitswesen13, im Sport14, im Gaming15 und im Kochen16. Für die Bauindustrie schlugen die Forscher außerdem mehrere Modelle für die RGB-Vision-basierte Aktivitätsklassifizierung17 und die auf Trägheitsmesseinheiten (IMU) basierende Sturzerkennung18 vor.

Die visuelle Bautätigkeitserkennung ist verfügbar und erschwinglich. Forscher verlassen sich hauptsächlich auf RGB- und RGBD-Kameras. Beispielsweise nutzten Yang et al.19 RGB-Video, um 11 häufige Bautätigkeiten zu klassifizieren. Roberts et al.20 verwendeten 317 kommentierte Videos, um die Tätigkeiten von Maurer- und Stuckateuren zu analysieren. Khosrowpour et al. schlugen einen überwachten maschinellen Ansatz zur Vorhersage von Arbeiteraktivitäten mit RGB-D-Kameras vor und berichteten über eine Erkennungsgenauigkeit von 76 %21. Ein weiterer beliebter technischer Weg ist die Verwendung tragbarer Sensorsysteme wie IMU-Sensoren18,22,23, Smartphones24,25, Sportuhren26,27 und tragbarer Einlegesohlen-Drucksysteme28,29,30. Beispielsweise haben Yang et al.18 einen halbüberwachten Lernalgorithmus entwickelt, um Beinahe-Stürze von Eisenarbeitern mit IMU-Systemen zu erkennen. Antwi-Afari et al.31 untersuchten drei Arten wiederkehrender neuronaler Netze zur automatischen Erkennung und Klassifizierung unangenehmer Arbeitshaltungen von Bauarbeitern mithilfe tragbarer Einlegesohlensensoren.

Angesichts der Bedeutung und Nützlichkeit dieser Aktivitätserkennungsalgorithmen haben Forscher enorme und zuverlässige Datensätze entwickelt, um die weitere theoretische Entwicklung zu unterstützen, wie den HDM05 Motion Capture (mocap)-Datensatz32 und den Berkeley MHAD-Datensatz33, den NTU + RGBD 120-Datensatz34 und den CAD60-Datensatz35. Allerdings waren die meisten dieser Datensätze für die generische Aktivitätserkennung konzipiert, jedoch nicht speziell für Bauaktivitäten, was zu hohen Erkennungsfehlern und falschen Interpretationen führte. Dies kann auf zwei Gründe zurückgeführt werden: erstens auf die Belastung durch unangenehme Körperhaltungen. Bauaufgaben umfassen komplizierte Tätigkeiten und sind stark auf manuelle Tätigkeiten angewiesen. Die körperlich anstrengenden Aufgaben führen dazu, dass die meisten Bauarbeiter unter arbeitsbedingten Muskel-Skelett-Erkrankungen (WMSDs)36 und langfristigen ergonomischen Verletzungen leiden. Diese Verletzungen und WMSD werden häufig auf ungünstige Arbeitshaltungen zurückgeführt37. Unter einer ungünstigen Körperhaltung versteht man Körperhaltungen, die erheblich von der normalen und bequemen Haltung abweichen und möglicherweise zu Muskelstörungen und Traumata führen können38. Ungünstige Körperhaltungen bei Bautätigkeiten gehen häufig mit einer langfristigen Belastung der Muskeln und nahezu extremen Rotationen der Körpergelenke aufgrund verschiedener Arbeitsaufgaben wie Lasttragen, Knien, Beugen, Hocken und Drehen einher. Der zweite Grund sind eindeutige Bewegungsbezeichnungen. Die Skelettgelenkpositionen vieler baubezogener Arbeitstätigkeiten im Kontext des Bauumfelds ähneln häufig generischen Vorgängen völlig anderer Aufgaben. Beispielsweise ist die Skeletthaltung des Winkens im täglichen Leben identisch mit der Bewegung eines Bauarbeiters, der Trockenbauwände bemalt. Daher sollten Etiketten ordnungsgemäß und konkret vergeben werden. Aufgrund der Kosten und des Zeitaufwands für die Erstellung eines neuen Datensatzes neigen Forscher dazu, generische Datensätze zur Validierung generischer Algorithmen zu entwickeln, vernachlässigen jedoch die einzigartigen Datenmerkmale und -muster einer bestimmten Branche. Professionelle und speziell gestaltete Datensätze bieten jedoch eine höhere Relevanz, Genauigkeit, Effizienz und Zuverlässigkeit für die spezifische Implementierung39. Um diese Lücke zu schließen, zielt diese Studie darauf ab, eine Bewegungsdatenbibliothek zu entwickeln, die für die Entwicklung der Aktivitätserkennung und des Aufgabenmanagements in der Bauindustrie geeignet ist, indem ein kleiner, manuell gesammelter Baubewegungsdatensatz mit großen öffentlichen Datensätzen integriert und alle Datensätze abgeglichen werden als ein geeigneter, vereinter und ordnungsgemäß gekennzeichneter Datensatz.

Um einen Baubewegungsdatensatz zu entwickeln, ist ein groß angelegtes Experiment zur Erfassung der wichtigsten Bauaktivitäten erforderlich. Da jedoch viele Forschungsteams zahlreiche generische Bewegungsdatensätze entwickelt haben, kombiniert diese Studie beide vorhandenen Datensätze mit dem Datensatz aus dem Laborexperiment, um einen integrierten Baubewegungsdatensatz mit speziell entwickelten Beschriftungssystemen zu erstellen. Auf diese Weise können generische Bewegungen durch Auswahl und Kommentierung in relevante Bauaktivitäten übersetzt werden. Dieser Ansatz vermeidet wiederholte Bewegungserfassungsexperimente, vergrößert den Datensatz der Baubewegung und spart erheblich Zeit und Mühe. Die Kombination bestehender öffentlicher Datensätze und bauspezifischer Datensätze in einem einzigen integrierten Datensatz bringt jedoch vier große Herausforderungen mit sich, wie in Abb. 1 dargestellt. (a) Geräteunterschied. Menschliche Bewegungen können durch zwei Technologien erfasst werden: RGB/RGBD-basierte Videoverarbeitung und IMU-basierte tragbare Sensorik. Die Wahl der Technologie führt zu Unterschieden im endgültigen Datenformat (als Bilder oder Trägheitssignale) und in der Datenabtastrate. (b) Rahmenunterschied. Verschiedene Personen können dieselben Aktivitäten mit unterschiedlicher Dauer durchführen. Aufgrund der unterschiedlichen Abtastraten kann auch die gleiche Aktivität und gleiche Dauer zu einer unterschiedlichen Anzahl von Bildern führen. (c) Koordinatenunterschied. Bei unterschiedlichen Gerätekonfigurationen und Koordinationssystemen kann dieselbe Aktivität unterschiedlich durch lokale oder globale Koordinationssysteme mit unterschiedlichen quantitativen Werten dargestellt werden. (d) Etikettenunterschied. Die für dieselbe Aktivität verwendete Bezeichnung kann in verschiedenen Datensätzen unterschiedlich sein. Beispielsweise kann „Sprung“ auch als „Sprung“ oder „Sprung“ bezeichnet werden.

Inkonsistenzen in MoCap-Datensätzen.

Neben der Ausrichtung aller öffentlichen Datensätze im gleichen Datenformat mit dem gleichen Skelettmodell führte diese Studie auch ein Laborexperiment durch, um die vordefinierten baubezogenen Aktivitäten für die weitere Datenannotation zu erfassen. Die Richtlinien für Studienverfahren entsprachen allen relevanten ethischen Vorschriften und wurden vom Ethikausschuss für menschliche Subjekte der City University of Hong Kong genehmigt. Die Einverständniserklärung wurde von allen Teilnehmern eingeholt. Vor dem Laborexperiment wurden auf der Grundlage einer Ergonomieanalyse 60 Arten baubezogener Tätigkeiten vordefiniert. Die erfassten Ergebnisse wurden als Standardhaltungssequenzen mit anderen Aktivitätsrahmen verwendet. Die Variationen der Gelenkbewegungen der Skelettmodelle wurden berechnet. Anschließend werden die Stichproben öffentlicher Datensätze mit standardisierten Aktivitäten verglichen und die Bezeichnung mit der geringsten Variation oder den geringsten Unterschieden wird zur Kommentierung der Stichprobe verwendet. Das Laborexperiment nutzte das Bewegungserfassungssystem Noitom Perception Neuron und 10 Probanden beteiligten sich an der Datenerfassung.

Zusammenfassend wurde in dieser Studie ein formaler Arbeitsablauf zur Verarbeitung des manuell gesammelten Laborexperimentdatensatzes und der öffentlichen Datensätze entwickelt (wie in Abb. 2 dargestellt). Um sicherzustellen, dass das Datenformat konsistent ist, werden alle Bilder, Videobilder und seriellen Trägheitssignale in 3D-Körperskelette umgewandelt. Alle Skelettdaten werden in vier Hauptschritten verarbeitet, darunter einheitliche Datenextraktion, Skelettstrukturausrichtung, Resampling und Koordinationstransformation. Anschließend werden alle ausgerichteten Skelettdaten manuell in vier Aktivitätskategorien mit Anmerkungen versehen und mit Beschriftungen versehen. Der endgültige Datensatz der Construction Motion Library (CML) wird anhand der Benchmarking-Daten im Labor verifiziert und mit fünf gängigen Deep-Learning-Algorithmen getestet. Tabelle 1 fasst die öffentlichen Skelettbewegungsdatensätze zusammen, die in der Studie für die Entwicklung des Baubewegungsdatensatzes verwendet wurden. Einige öffentliche Bewegungsdatensätze konzentrieren sich auf bestimmte Branchen und sind für diese Studie von geringer Relevanz, sodass sie aus der Studie ausgeschlossen wurden. Beispielsweise wurde der Hollywood 3D Dataset40 für Performance-Aktivitäten entwickelt.

Der Arbeitsablauf der Entwicklung des Baubewegungsdatensatzes.

Um die vier technischen Herausforderungen zu bewältigen, wurde in dieser Studie ein Verarbeitungsprotokoll für alle Datensätze entwickelt. Das Protokoll besteht aus sechs Hauptschritten: (1) Skelettgenerierung und einheitliche Datenextraktion. Dieser Schritt zielt darauf ab, ein einheitliches Skelettmodell zu entwerfen und die Originaldatensätze zu bereinigen. (2) Ausrichtung der Skelettstruktur. Dieser Schritt stellt sicher, dass alle Datensätze dasselbe Skelettmodell verwenden und alle Gelenkbewegungen in derselben Einstellung ausgerichtet werden. (3) Neuabtastung. Ziel dieser Studie ist es, sicherzustellen, dass alle Datenproben demselben Zeitstempelsystem folgen und dieselbe Anzahl von Frames pro Zeiteinheit aufweisen. (4) Koordinationstransformation. Dieser Schritt stellt sicher, dass alle Proben über das lokale Koordinatensystem der Probe verfügen und dieselben Haltungen dieselben quantitativen Werte haben. (5) Datensegmentierung. Dieser Schritt stellt sicher, dass die Aktivität mit derselben Bezeichnung dieselbe Rahmenlänge hat, was für die zukünftige Verwendung einfacher ist. (6) Datenformat des CML-Datensatzes. Zur einfacheren Verarbeitung werden alle Proben im gleichen Datenformat gespeichert. In den folgenden Abschnitten werden die einzelnen Schritte ausführlicher erläutert.

Um alle Datensätze abzugleichen, wurden sowohl visionsbasierte als auch IMU-basierte Datenformate in 3D-Skeletthaltungen übersetzt. Die Datenform einer typischen Skeletthaltung liegt im Bio-Vision Hierarchy (BVH)-Format vor. Das BVH-Datenformat kann sowohl die Gelenkkonnektivität als auch die Gelenkbewegungen in einer einzigen Datei speichern. Als weit verbreitetes Datenformat können alle wichtigen Bewegungsdateien als BVH-Bewegungsdateien extrahiert werden. Vorhandene Datensätze speichern Aktivitäten normalerweise als separate Dateien. Viele Dateien haben jedoch unterschiedliche Anhänge, was dazu führt, dass viele beschriftete Dateien mehr als eine Aktivität haben und nur ein grobes Tag haben. Um alle extrahierten Dateien einheitlich zu machen, wurden daher alle Datendateien mit mehreren Aktivitäten manuell in kurze und unabhängige Aktivitäten unterteilt und separat mit einer einzigen Bezeichnung gespeichert. Außerdem wurden aus Gründen der Übersichtlichkeit irrelevante Bewegungsbilder entfernt. Beispielsweise verfügt der ursprüngliche CMU-Mocap-Datensatz über 2.605 Aktivitätssequenzen, und nach der Datenextraktion und -bereinigung weist der verarbeitete Datensatz 172 Aktivitätstypen und 2.928 Stichproben auf. Ein weiteres Problem besteht darin, dass viele Aktivitätsdateien mehrere menschliche Subjekte und Nullwerte enthalten. Nullwert-Samples sind Bewegungsdateien, deren Bewegung der Skelettgelenke mit Nullen gefüllt ist oder deren Inhalt teilweise fehlt. Im UT-Kinect-Action3D-Datensatz weist die „Carry“-Aktivität beispielsweise eine Stichprobe voller Nullen auf. Im NTU-RGB + D 120-Datensatz sind für die Aktivitäten von A1–A60 165 Dateien mit Nullen gefüllt, und für die Aktivitäten von A61–A120 sind 191 Dateien mit Nullen gefüllt. Diese Studie entfernte direkt sowohl die Nullwertproben als auch Proben mit mehreren menschlichen Objekten.

Gängige Bewegungserfassungsgeräte haben ihre einzigartigen Skelettstrukturen und technischen Konfigurationen. Infolgedessen kann dieselbe Bewegung aufgrund von Erfassungsgeräten wie OpenNI (15 Gelenke), Microsoft Kinect V1 (20 Gelenke), Microsoft Kinect V12 (25 Gelenke), RGB Mocap (17 Gelenke) unterschiedliche Datenstrukturen in unterschiedlichen Datensätzen aufweisen. und Noitom Perception Neuron (29 + 2 Gelenke). Abbildung 3 zeigt Gelenkstrukturen, die von fünf typischen Geräten erfasst wurden, und das vereinfachte 15/20-Gelenksystem zur Skelettausrichtung. In dieser Studie wurde ein System mit 15 bis 20 Skeletten entwickelt, das alle anderen Skelettmodelle aufnehmen und mit ihnen kompatibel sein kann. Das System bietet zwei Gelenkstrukturen und das 20-Gelenk-Modell verfügt über mehr Gelenke, um die Bewegung mit hoher Auflösung zu quantifizieren. Die Bewegungsdaten der gleichen Gelenke des entwickelten Systems und anderer Skelettmodelle bleiben gleich. Das fehlende Gelenk wird mit der Interpolation des Nachbargelenks berechnet. Die nichtlineare Interpolation nutzte das Multi-Layer-Perceptron-Modell (MLP) des Scikit-Learn-Pakets (der Validierungsfehler beträgt 0,0961).

Typische Gelenkmodelle des Skelettkörpers und das vereinfachte 15/20-Gelenksystem.

Die Abtastrate vorhandener Datensätze liegt zwischen 15 und 480 Bildern pro Sekunde (fps). Dies führt zu einer hohen Inkonsistenz beim Lesen der richtigen Eingaben für die Haltungserkennung. Beispielsweise hat der Berkeley MHAD-Datensatz eine Abtastrate von 480 fps, und der UTKinect-Action3D-Datensatz und der MSR Action3D-Datensatz haben eine Abtastrate von 15 fps.

Diese Studie wandelt alle Samples in 30 fps um, was der Sampling-Rate der meisten Geräte (wie Kinect v1/v2 und Vicon) entspricht. Bei Datensätzen mit einer Abtastrate von mehr als 30 Hz werden die redundanten Frames abgeschnitten; Bei Datensätzen mit einer Abtastrate von weniger als 30 Hz werden die Daten der fehlenden Frames mit den interpolierten Durchschnittsergebnissen aufgefüllt. Da die Datensätze außerdem unterschiedliche Einheiten wie Zoll, Zentimeter, Millimeter und Meter verwendeten, werden alle Probeneinheiten in Meter umgerechnet. Darüber hinaus verfügen einige Datensätze über einen Z-Achsen-Kalibrierungswert, um die Unterschiede in der Körpergröße der Probanden widerzuspiegeln (z. B. der CMU-Mocap-Datensatz mit einer Skalenlänge von 0,45 und der SBU-Datensatz mit einem Z-Skalierer von 7,8125). In dieser Studie werden die Z-Werte aller Proben entsprechend ihrem Skalierer angepasst.

Unterschiedliche Dateiformate führen nicht nur zu unterschiedlichen Skelettmodellen, sondern führen auch zu Inkonsistenzen in den Koordinatensystemen. Für die Konvertierung von Koordinatensystemen müssen geeignete Rotationsmatrizen (\({R}_{x},{R}_{y},{R}_{z}\)) und Translationsmatrizen (T) definiert werden. Die skelettbasierten Bewegungsdateien wie .ASF/AMC und .BVH definieren die aufgezeichneten Bewegungssignale als lokales System. Um die Systeme auszurichten, muss daher jedes Gelenk in das globale System übersetzt werden. Normalerweise werden alle Gelenke durch die Multiplikation der Transformationsmatrizen (Mi) verbundener Gelenke in das System am Hüftgelenk übertragen. Mi kann mit einer entsprechenden Rotationsmatrix und Translationsmatrix berechnet werden. Abbildung 4 zeigt einen solchen Transformationsprozess für verschiedene Koordinationssysteme. Wie in der Abbildung gezeigt, können die Koordinaten im globalen System (Vg) mit \({M}_{i}^{{\prime} }s\) und lokalen Koordinaten Vl berechnet werden. In ähnlicher Weise führen verschiedene Mocap-Geräte auch verschiedene Koordinationssysteme ein. Beispielsweise definiert die Kinect den Ursprung des Koordinationssystems im Zentrum ihres Infrarotsensors. X wächst nach links vom Sensor; Y wächst bis zur Neigung des Sensors; Z wächst in die Richtung, in die der Sensor zeigt. Die Werte von x, y und z können negativ oder positiv sein und hängen von den relativen Positionen der erfassenden Objekte zum Sensor ab. Die meisten Datensätze mit Kinect-Technologien haben ihre Skelettgelenkpositionen direkt im Gerätekoordinatensystem. Durch Implementierung des in Abb. 4 dargestellten vektorisierten Transformationsprozesses können diese Datensätze in das Subjektkoordinatensystem oder das globale Koordinatensystem übersetzt werden. Darüber hinaus kann das kartesische System abhängig von der Definition der x-, y- und z-Ausrichtung unterschiedliche Konfigurationen haben, beispielsweise XYZ, YXZ oder ZYX. Durch die Multiplikation geeigneter Rotationsmatrizen können alle Koordinatensysteme als XYZ-Setups ausgerichtet werden, um die Datenverarbeitung in Zukunft zu vereinfachen.

Umstellung von Koordinationssystemen.

Jeder Datensatz verfügt über eine einzigartige Aufteilung der Aktivitäten und eine offensichtliche Konsequenz ist, dass die Länge der Stichproben unterschiedlich ist, sogar im selben Datensatz. Viele quantitative Implementierungen erfordern, dass die Eingabedaten für eine einfache praktische Verwendung die gleiche Länge oder Größe haben. Daher benötigt der CML-Datensatz eine ordnungsgemäße Datensegmentierung. Nach der Neuberechnung nutzte diese Studie ein Schiebefenster, um die Länge aller Stichproben in den Datensätzen auszurichten und zu zählen. Die durchschnittliche Frame-Länge aller baubezogenen Aktivitäten wurde für den Laborexperiment-Datensatz gezählt (ca. 92 bis 96,9 Frames). Anschließend wurde für verschiedene Aktivitäten eine standardisierte Rahmennummer, beispielsweise 100 und 120, gewählt. Allerdings kann es sein, dass Menschen die gleiche Aktivität mit unterschiedlicher Geschwindigkeit ausführen. Daher muss die standardisierte Rahmennummer mindestens 80 % der Aktivitätshaltungen abdecken. Wenn die Aktivität vorzeitig beendet wird, bleiben die restlichen Bilder dieselben wie das letzte Bewegungsbild. Nach diesem Prinzip wurde für jede Aktivität die richtige Frame-Nummer ausgewählt und die Datensegmentierung manuell mit der richtigen Frame-Länge durchgeführt.

Um eine effiziente Datenabfrage und eine einfachere Datenfreigabe zu ermöglichen, wurde in dieser Studie beschlossen, den CML-Datensatz als JavaScript Object Notation (JSON)-Dateien zu exportieren. JSON ist ein leichtes Datenformat, auf das direkt online zugegriffen und das mit NoSQL-Datenbanken wie MongoDB gespeichert und abgefragt werden kann. Es kann bequem mit den wichtigsten Rechen- und Programmiertools abgerufen und importiert und in andere herkömmliche Datenformate wie ASF/AMC, c3d, BVH, TXT und CSV konvertiert werden.

Die herkömmliche Regel zur Gruppierung menschlicher Aktivitäten basiert auf ihrer Komplexität. Beispielsweise kategorisierten Aggarwal und Ryoo Aktivitäten als Gesten, Aktionen, Interaktionen und Gruppenaktivitäten41. Gesten sind elementare Bewegungen eines Körperteils einer Person, die die Aktivitäten einer Person als „zwei Arme drehen“, „ein Bein heben“ usw. kennzeichnen. Aktivitäten sind kontinuierliche Bewegungen, die aus mehreren Körperhaltungen wie „Fangen“, „Ziehen“, „Ziehen“ bestehen. “ und „tragen“. Interaktionen sind Aktivitäten, an denen eine Person und eine andere Person oder eine Person und ein Objekt beteiligt sind. Unsicheres Verhalten ist die Hauptursache (über 80 %) für Unfälle42 und quantitative Skeletthaltungen können zur Aktivitätserkennung verwendet werden43,44. Ein weiterer Faktor für die berufliche Gesundheit, der eng mit WMSDs zusammenhängt, ist eine über längere Zeit unbequeme Körperhaltung bei der Ausführung von Aufgaben45. Bei den regulären Arbeitsaktivitäten unterschieden die Forscher die Aktivitäten der Arbeitnehmer in „Produktivmodus“, „Halbproduktivmodus“ und „Nichtproduktivmodus“46,47. Daher sind alle Aktivitäten in unserem Datensatz in zwei größere Gruppen unterteilt: baubezogene Aktivitäten (Produktionsaktivitäten, unsichere Aktivitäten und umständliche Aktivitäten) und nicht baubezogene Aktivitäten (allgemeine Aktivitäten und andere Aktivitäten). Produktionsaktivitäten stehen in direktem Zusammenhang mit Bauaufgaben und einzigartigen Aktivitäten im Zusammenhang mit der Branche. Sie könnten verwendet werden, um den Arbeitsstatus und die Effizienz der Arbeitnehmer zu ermitteln. Bei unsicheren Tätigkeiten handelt es sich um Tätigkeiten, die Arbeitnehmer hohen Risiken aussetzen und möglicherweise Unfälle verursachen. Umständliche Tätigkeiten stehen möglicherweise nicht in direktem Zusammenhang mit Unfällen, sind jedoch mit langfristigen arbeitsbedingten Muskel-Skelett-Erkrankungen (WMSDs) verbunden, die sich langfristig negativ auf die Gesundheit der Arbeitnehmer auswirken. Gemeinsame Aktivitäten sind allgemeine Aktivitäten, die Aktivitäten im täglichen Leben ähneln, wie zum Beispiel „Sitzen“, „Stehen“ und „Gehen“. Um die Stichproben im Datensatz zu kommentieren, wurden in dieser Studie die drei Arten vordefinierter Bauaktivitäten erfasst. Bei den Etiketten handelt es sich um typische Tätigkeiten im Baugewerbe, und ob das Etikett zu unsicheren oder umständlichen Tätigkeiten gehört, wurde anhand vorhandener ergonomischer Theorien und Modelle bestimmt, beispielsweise dem Rapid Whole Body Assessment (REBA)48, dem Rapid Upper Limb Assessment (RULA)49 und Ovako Working Posture Assessment System (OWAS)50, Manual Handling Assessment Chart (MAC)51, Posture, Activity, Tools and Handling (PATH)52, Ergonomieregel des US-Bundesstaates Washington (WAC 296-62-051)53.

Zahlreiche bestehende Forschungsarbeiten haben die wichtigsten Produktionsaktivitäten identifiziert und das Konzept eingeführt, sie zur Definition und Messung der Produktivität in Bauprojekten zu verwenden54. Außerdem können Produktionsaktivitäten zur Bewertung des Arbeitszustands von Arbeitnehmern herangezogen werden55. Allerdings haben einige Aktivitäten ähnliche Haltungsabfolgen wie Nichtproduktionsaktivitäten. Beispielsweise können „Bewegen mit leeren Händen“ und „Bewehrungsstahl transportieren“ ähnliche Skelettbewegungen haben. Um eine ordnungsgemäße Kennzeichnung zu gewährleisten, wurden in dieser Studie daher Tätigkeiten nur dann als Produktionstätigkeiten gekennzeichnet, wenn sie einen eindeutigen Bezug zu Baumaterialien, Werkzeugen oder Baugeräten hatten, wie etwa „Schweißen“, „Bohren“, „Nageln“, „Schrauben“ und „Sägen“. .“

Viele Studien haben berichtet, dass 80–90 % der Unfälle mit unsicheren Tätigkeiten der Arbeitnehmer in Zusammenhang stehen56,57. Die Occupational Safety and Health Administration (OSHA) hat die kritischsten unsicheren Aktivitäten auf der Grundlage der gemeldeten Unfallstatistiken definiert58. Viele Forscher haben anhand der Statistiken und Berichte der OSHA typische unsichere Verhaltensweisen klar definiert. Beispielsweise haben Han und Lee59 sechs Kategorien unsicherer Aktivitäten für Bauarbeiter abgeleitet, darunter Stürze, Transport, Kontakt mit Gegenständen und Geräten, Exposition gegenüber schädlichen Substanzen/Umgebungen, Angriffe und Gewalttaten, Brände und Explosionen. Hinze et al.60 führten Unfälle auf 20 mögliche unsichere Aktivitäten zurück, darunter Stürze aus der Höhe, Stürze vom Boden, Stromschlag (Stromleitungen), Stromschlag (Gebäudestrom), Stromschlag (fehlerhafte Anlagenverkabelung), Stromschlag (fehlerhafte Bauwerkzeuge/Verkabelung). , Stromschlag (andere), Schlag durch Ausrüstung, Schlag durch herabfallendes Material, Schlag durch Material (außer herabfallendem Material), Einklemmen in/zwischen Ausrüstung, Einklemmen in/zwischen Material, Einsturz, Explosion, Feuer, Explosion/Feuer, Ersticken , Ertrinken, natürliche Ursachen und andere. Choudhry et al.61 berichteten, dass der Mangel an einer von fünf Bauressourcen zu unsicheren Aktivitäten für das Bauteam führen kann. Zu diesen Ressourcen gehören persönliche Schutzausrüstung, Haushaltsführung, Zugang zu Höhen, Anlagen und Ausrüstung sowie Gerüste. Basierend auf diesen Studien kennzeichnet diese Studie unsicheres Verhalten, wenn es für die folgenden Aktivitäten oder Ereignisse relevant ist: (1) Stürze von verschiedenen Ebenen oder Leitern, einschließlich Ausrutschen, Stolpern, Klettern/Springen von Leitern/Treppen und Greifen; (2) das Ablegen persönlicher Schutzausrüstung, einschließlich Schutzhelmen, Handschuhen, Westen, Schuhen und Brillen; (3) der Aufenthalt in der Nähe von Feuer und Explosionen, einschließlich Rauchen; (4) Übergriffen und Gewalttaten ausgesetzt zu sein, einschließlich Schlägen, Tritten und Schlägen. Schließlich wurden 36 unsichere Aktivitäten identifiziert und zur Kommentierung des endgültigen CML-Datensatzes verwendet.

Muskel-Skelett-Erkrankungen machen 33 % aller neu gemeldeten Berufskrankheiten und 77 % der Erkrankungen von Bauarbeitern aus und sind damit die häufigste Ursache arbeitsbedingter Erkrankungen62. Als Hauptursache dieser Störungen wird in dieser Studie eine separate Kategorie unangenehmer Aktivitäten aufgeführt. Basierend auf der ergonomischen Analyse haben viele Forscher quantitative Definitionen der umständlichen Tätigkeiten von Bauarbeitern vorgeschlagen. Beispielsweise schlugen Jaffar et al.63 sieben generische unangenehme Körperhaltungen und Aktivitäten vor, darunter seitliches Vorbeugen, Bücken, Überkopfgreifen, seitliches Ausstrecken der Ellbogen, Beugen des Handgelenks, Herabbeugen des Halses und Drehen eines Körperteils. James et al.64 schlugen Körperhaltungen vor, die von der neutralen Position abweichen, wie etwa Greifen, Knien, Heben, Bücken, Arbeiten über Kopf, Drehen, Verwendung vibrierender Geräte, Hocken und Überreichweite. Basierend auf diesen Studien wurden in dieser Studie 11 Etiketten für unangenehme Aktivitäten entwickelt.

Neben den oben genannten baubezogenen Tätigkeiten werden allgemeine Tätigkeiten wie Gehen, Sitzen und Stehen als allgemeine Tätigkeiten kategorisiert. Diese Aktivitäten ergänzen oder sind Teil komplexerer Aktivitäten.

Zusätzlich zu den vier Haupttypen von Aktivitäten im Zusammenhang mit dem Bau werden irrelevante Aktivitäten als „Sonstige“ gekennzeichnet, beispielsweise „Mondwandern“ oder „Eincremen des Gesichts“.

Aufgrund unterschiedlicher Versuchsdesigns können die beschreibenden Bezeichnungen für dieselben Aktivitäten unterschiedlich sein. Beispielsweise wurde die Aktivität des Joggens im MSRAction3D-Datensatz als „Joggen“ bezeichnet, im UTD-MHAD3-Datensatz jedoch als „Joggen auf der Stelle“. Die Bezeichnungen „Annäherung“ und „Abfahrt“ im SBU-Kinect-Interaktionsdatensatz haben aufgrund des Experimentdesigns eine Laufrichtung. Um die Konsistenz aller Beschriftungen sicherzustellen, folgt die manuelle Annotation des CML-Datensatzes daher drei Regeln.

Schlicht und repräsentativ. Der Name des Labels sollte einfach, kurz und repräsentativ für die Art einer Aktivität sein. Beispielsweise werden „Joggen auf der Stelle“ und „langsames Joggen“ als „Joggen“ bezeichnet; „Vorwärtsgehen“ und „Gehen“ werden als „Gehen“ bezeichnet.

Nichtrichtungs. Da die Koordinatensysteme aller Datensätze in die Koordinaten des Subjekts übersetzt werden, werden die Richtungsbezeichnungen als dieselbe Bezeichnung zusammengeführt. Beispielsweise werden „nach Osten gehen“ und „vorwärts gehen“ als „Gehen“ bezeichnet.

Klar und konservativ. Um mögliche Fehler zu vermeiden, werden mehrdeutige Aktivitätsdatenproben nicht gekennzeichnet und entfernt.

Wie in Tabelle 2 gezeigt, handelt es sich bei allen Etiketten um vorgefertigte Aktivitäten, die auf der Literaturrecherche basieren. Alle Datensätze sind öffentlich zugänglich und bei ordnungsgemäßer Zitierung nutzbar. Für die in der Tabelle mit „--“ aufgeführten Lizenzen gibt der Datensatzeigentümer den Typ der Lizenzen nicht an. Das Laborexperiment sammelte die Standardhaltungsrahmen für alle baubezogenen Aktivitäten. Die Stichproben aus dem öffentlichen Datensatz wurden mit allen Standardaktivitäten verglichen und als diejenige mit der höchsten Ähnlichkeit (geringste Unterschiede in den Bewegungen der Skelettgelenke) annotiert. Wenn zwei Tätigkeiten einander ähnlich sind, hat das „Label“ in den Kategorien baubezogene Tätigkeiten und unsichere Tätigkeiten eine höhere Priorität. Tabelle 3 zeigt ein Beispiel zusammengeführter Etiketten.

Der endgültige CML-Datensatz wurde im FigShare-Repository65 gespeichert. Die DOI der relevanten öffentlichen Datensätze finden Sie in Tabelle 1 und ihre URLs in Tabelle 2. In Tabelle 4, Tabelle 5 und Tabelle 6 sind die Datenstatistiken und Datenstrukturen des Datensatzes aufgeführt.

Tabelle 4 fasst die Statistiken des endgültigen CML-Datensatzes zusammen. Insgesamt wurden 146.480 Proben aus den ursprünglichen öffentlichen Datensätzen und Datensätzen aus Laborexperimenten extrahiert. Ursprünglich gab es für alle Aktivitäten 225 Aktivitätsklassen. Nach der Aggregation wurden nur 73 Etiketten mit Bautätigkeiten in Zusammenhang gebracht und nur 61.275 Proben waren für die zukünftige Entwicklung geeignet. Die Größe aller JSON-Dateien im CML-Datensatz betrug mehr als 10 Gigabyte. Abbildung 5 zeigt den Boxplot der Framenummern aller Aktivitäten. Die durchschnittliche Rahmenzahl für baubezogene Tätigkeiten und alle Tätigkeiten betrug 92 bzw. 96,9. Aufgrund der Lizenzanforderungen für öffentliche Datensätze wurden in dieser Studie nur die verarbeiteten Datenstichproben aus Datensätzen weitergegeben, die eine Weiterverteilung und gemeinsame Nutzung ermöglichen. Zusammenfassend umfasst der freigegebene Datensatz 6.131 Stichproben (davon sind 4.333 Stichproben baubezogene Tätigkeiten). Da die restlichen Datensätze öffentlich verfügbar sind, stellt diese Studie ein Code-Repository bereit, das es Benutzern ermöglicht, die vollständigen Datensätze mit einem BVH-Parser und dem Skeleton-Konverter zu erstellen.

Rahmennummerstatistik von Proben in jeder Aktivitätskategorie.

Das CML-Datenformat für die Speicherung ist JSON, um das Importieren, Bewerten und Teilen zu erleichtern. Die Datei kann in zwei Teile geteilt werden. Der erste „Metadaten“-Teil speichert nur die Informationen zur Datenzusammenfassung, der ursprünglichen Datensatzquelle und der gemeinsamen Struktur und enthält alle Schlüssel außer „tdata“ und „bdata“. Der zweite „formale Daten“-Teil umfasst nur „tdata“ (ein Objekt enthält Rahmen aller Gelenke im Zeitverlauf) und „bdata“ (ein Objekt enthält Zeitreihendaten jedes Gelenks). Alle „formalen Daten“ werden mit einer standardisierten Bildrate/Abtastrate von 30 Hz gespeichert. Die detaillierte Datenstruktur ist in Tabelle 5 aufgeführt.

Tabelle 6 zeigt alle Beschriftungen, die im CML-Datensatz mit Anmerkungen versehen sind. Die ersten vier Kategorien sind baubezogene Tätigkeiten und die letzte Kategorie sind irrelevante Tätigkeiten. Um die Vollständigkeit des Datensatzes zu gewährleisten, werden die „anderen Aktivitäten“ im CML-Datensatz gespeichert, für zukünftige Entwicklungen können Forscher jedoch nur die ersten vier Aktivitätskategorien verwenden.

In diesem Abschnitt soll der entwickelte Datensatz validiert und seine Verwendbarkeit und Zuverlässigkeit in der Praxis sichergestellt werden. In dieser Studie wurden fünf weithin akzeptierte Deep-Learning-Modelle ausgewählt, um die Leistung des entwickelten CML-Datensatzes zu untersuchen. Auf diese Weise kann gezeigt werden, wie die einheitlichen Datensätze problemlos als standardisierte Eingaben für komplexe Netzwerke verwendet werden können. Außerdem sind die Trainings- und Erkennungsergebnisse mit anderen Datensätzen vergleichbar und können durch andere vorab trainierte Modelle optimiert werden. Darüber hinaus können die Validierungsergebnisse den Kompromiss zwischen Rechenaufwand und Erkennungsgenauigkeit bei der Verwendung des CML-Datensatzes deutlich zeigen.

Zu den ausgewählten Algorithmen gehören (1) Long Short-Term Memory (LSTM), (2) bidirektionale LSTM-Netzwerke66, (3) LeNet-567, (4) AlexNet68 und (5) ResNet-5069. LSTM ist das am weitesten verbreitete wiederkehrende neuronale Netzwerk, das die zeitlichen und kontextbezogenen Beziehungen von Eingabedaten modelliert, indem es ein zusätzliches Vergessenstor und eine interne Speicherzelle implementiert. Bidirektionale LSTM-Netzwerke erweitern das LSTM-Modell durch die Einführung bidirektionaler Beziehungen zwischen Proben. In dieser Studie wird das bidirektionale LSTM-Netzwerk aus zwei Schichten mit 90 Neuronen und einer Dropout-Rate von 0,5 gestapelt, gefolgt von zwei vollständig verbundenen Schichten mit der Aktivierungsfunktion ReLU70. LeNet-5 ist ein klassisches Faltungs-Neuronales Netzwerk (CNN), das jedoch räumliche Beziehungen zwischen hochdimensionalen Daten berücksichtigt. AlexNet erweitert LeNet-5 und zeigt höhere Genauigkeiten bei großen Bild- und Videodatensätzen. ResNet-50 ist ein Restnetzwerk und verfügt über eine zusätzliche Identitätszuordnungsfunktion. Die detaillierten Netzwerkstrukturen und Parameter aller fünf Testalgorismen sind in Tabelle 7 zusammengefasst. Die Eingabegrößen unterscheiden sich für die 15-Gelenk- und 20-Gelenk-Systeme. Für AlexNet betragen die Größen beispielsweise 3 x 100 x 90 und 3 x 100 x 120 für das 15-Gelenk- bzw. 20-Gelenk-System.

Aufgrund der Komplexität der Aktivitäten und der individuellen Unterschiede bei den Versuchspersonen kann die Sequenzlänge T jeder Aktivitätsprobe unterschiedlich sein. Diese Studie nutzte die Sparse-Sampling-Strategie, um die Sequenzlänge T für verschiedene Gesamtlängen zu vereinheitlichen und sicherzustellen, dass alle Samples in Netzwerke mit den gleichen Abmessungen eingespeist werden können. Für CNN-basierte Netzwerke ist das Körperskelett \({x}_{t}\in {R}^{3\times N}\), wobei N die Anzahl der Gelenke und 3 die Koordinatendimension darstellt. Bei jedem Zeitschritt t ∈ T ist t der Index der Frames. Daher ist die Eingabe für CNN-basierte Netzwerke die Skelettsequenzen \(X\in {R}^{3\times N\times T}\), und für LSTM-basierte Netzwerke beträgt die Eingabegröße \(X\in {R}^{3N\times T}\).

Der Datensatz wurde mit unterschiedlicher Anzahl von Iterationen und unterschiedlichem Anteil/Größe des Datensatzes getestet. Der Iterationstest sollte die Effizienz der Verwendung des CML-Datensatzes untersuchen, um ein ausreichend genaues Modell zu erhalten. Mit dem Test unterschiedlicher Stichprobengrößen soll untersucht werden, ob eine ausreichende Datenmenge und eine effiziente Datengröße vorhanden sind, um eine akzeptable Genauigkeit zu erreichen. Die untersuchten Stichprobengrößen sind in Tabelle 8 aufgeführt.

Alle Algorithmen wurden in der Python-Sprache mit dem Pytorch-Paket programmiert. Der Test-Desktop-Computer war mit einer Intel i7-11700@ 2,50-GHz-CPU (8 Kerne, 16 Threads) und einer GeForce GTX 3060Ti-GPU konfiguriert. Basierend auf der Sparse-Sampling-Strategie hatte jeder Trainingsstapel 256–1024 Sequenzen und die gesamte Trainingsepoche betrug 10.000. Die Lernrate wurde auf 0,00001 festgelegt und der Adaptive Moment Estimation (ADAM)-Algorithmus71 mit einer Abklingrate von 0,001 wurde angepasst, um den Kreuzentropieverlust zu optimieren.

Abbildung 6 und Tabelle 9 zeigen die Leistung der Entwicklungsgenauigkeit von fünf Deep-Learning-Modellen über Epochen. Die meisten Algorithmen konvertieren in 1.000 Epochen. Der letzte 10.000-Epochen-Lauf erhöhte die Erkennungsgenauigkeit nur geringfügig. Wenn die Epochenzahl mehr als 4.000 beträgt, beginnt der Verlust zuzunehmen und die Erkennungsgenauigkeit schwankt. Daher ist der entwickelte CML-Datensatz in der Lage, bei 1.000-Epochen-Läufen schnell akzeptable und nutzbare Lernmodelle zu generieren. Die durchschnittliche Modelltrainingszeit beträgt weniger als eine Stunde.

Erkennungsgenauigkeiten und -verluste verschiedener Deep-Learning-Modelle über Epochen.

Abbildung 7 zeigt die Erkennungsgenauigkeiten und -verluste bei unterschiedlichen Stichprobengrößen. Die Genauigkeiten und Verluste wurden aus mehreren gemischten Trainingstests gemittelt. Der Trainingsdatensatz nutzte nur einen Teil des gesamten CML-Datensatzes, wie in Tabelle 8 gezeigt. Bei den Testproben handelte es sich um ungenutzte Proben, sodass kleinere Trainingsproben größere Testproben hatten. Ziel dieses Tests war es sicherzustellen, dass die Daten zur Aktivitätserkennung ausreichend sind. Aufgrund der großen und sich ändernden Teststichprobengröße zeigt der Verlust eines Modells an, dass die Daten ausreichen, wenn die Stichprobengröße relativ klein war. Wie man sehen kann, konvergiert der Verlust bei etwa 25.000 Proben, was darauf hindeutet, dass der entwickelte CML-Datensatz ausreicht, um ein zuverlässiges Aktivitätserkennungsmodell zu trainieren.

Erkennungsgenauigkeiten und -verluste verschiedener Deep-Learning-Modelle bei unterschiedlichen Stichprobengrößen.

Herkömmliche Methoden zur Aktivitätserkennung klassifizieren Bauaktivitäten in wenige Typen. Beispielsweise verwendeten Gong et al.17 charakterisierte Bilder, um Bautätigkeiten in fünf Kategorien zu klassifizieren: Reisen, Transportieren, Bücken, Ausrichten und Nageln. Escorcia et al.72 verwendeten Bag-of-Poses-dargestellte Farb- und Tiefendaten vom Kinect-Sensor, um fünf Arten von Trockenbauaktivitäten zu erkennen. Yang et al.19 schlugen eine Methode zur Darstellung dichter Trajektorien vor, um 11 häufige Bauaktivitäten anhand von Videos zu erkennen. Kürzlich verglichen Akhavian und Behzadan24 verschiedene Klassifizierungsalgorithmen und berichteten, dass neuronale Netzwerkmodelle eine höhere Genauigkeit bieten und die Erkennung von mehr Arten von Aktivitäten ermöglichen. Allerdings sind neuronale Netzwerkmodelle, insbesondere Deep-Learning-Modelle, in hohem Maße auf Datensätze angewiesen, die über eine große Datenmenge und umfassende Beschriftungen verfügen. Der in dieser Studie entwickelte CML-Datensatz stellte nicht nur einen Datensatz mit 60 baubezogenen Aktivitätskennzeichnungen zusammen, sondern erstellte auch einen standardisierten groß angelegten Datensatz auf der Grundlage öffentlicher Datensätze mit mehr als 100 nicht baubezogenen Aktivitäten. Eine solche Anreicherung der Datenquelle kann die Leistung von Aktivitätserkennungsmodellen erheblich verbessern und auf andere Nutzungsbereiche ausgeweitet werden. Im Fall der technischen Validierung erreichte die durchschnittliche Aktionserkennungsgenauigkeit der fünf Algorithmen eine Genauigkeit von 74,62 bis 83,92 %. Angesichts der großen Anzahl unterschiedlicher Labels kann der CML-Datensatz einen erheblichen Beitrag für die Branche leisten.

Präzise Bewegungserkennungsalgorithmen hängen von zuverlässigen und umfangreichen Datensätzen ab. Obwohl die Aktivitätserkennung für die Bewältigung von Bauaufgaben und die Vermeidung von Verletzungen von entscheidender Bedeutung ist, fehlt noch ein speziell für die Bauindustrie entwickelter Datensatz. Gleichzeitig stellen moderne Modelle des maschinellen Lernens hohe Anforderungen an die Qualität und Quantität der Datensätze; Zugänglich und leicht ist die Voraussetzung für die Implementierung künstlicher Intelligenz in einer bestimmten Branche. Der CML-Datensatz wurde entwickelt, um den oben genannten Zwecken zu dienen und eine Dateninfrastruktur für die Entwicklung anspruchsvoller Modelle und Tools bereitzustellen. Alle Daten wurden für die sofortige Verwendung ordnungsgemäß ausgerichtet und bereinigt und im am besten kompatiblen Format gespeichert. Alle relevanten Etiketten wurden manuell validiert und mit Anmerkungen versehen, um ihre Richtigkeit sicherzustellen. Die Validierungstests legen nahe, dass der entwickelte CML-Datensatz groß genug und umfangreich ist, um genaue und agile Lernmodelle zu trainieren. Es ist außerdem vielseitig genug, um sowohl in visionbasierten als auch in IMU-basierten Bewegungserfassungssystemen mit unterschiedlichen Geräten und Ausrüstungen implementiert zu werden.

Der entwickelte CML-Datensatz kann bei der Entwicklung von Modellen und Toolsets zur Sicherheits- und Produktivitätsbewertung verwendet werden. Durch das Erkennen von Produktionsaktivitäten können die Arbeitsbelastung und deren körperliche Anforderungen sowie die Kapazitäten der menschlichen Arbeitskräfte beurteilt werden. Dies kann bei der Produktivitätsberechnung und bei der Organisation von Bauzeitplänen genutzt werden. Angesichts der Tatsache, dass unsichere und umständliche Aktivitäten erkannt werden, können Projektmanagementplattformen Frühwarnungen und geeignete Schulungsprogramme für Bauarbeiter bereitstellen. Außerdem kann die Intensität unangenehmer Aktivitäten genutzt werden, um den langfristigen chronischen Schaden für Arbeitnehmer zu bewerten, die möglicherweise an WMSDs leiden. Darüber hinaus kann die Aktivitätserkennung erweitert werden, um künftig die Zusammenarbeit zwischen Mensch und Roboter zu koordinieren. Daher spielt der CML-Datensatz eine wesentliche Rolle bei der Aufrechterhaltung dieser Anwendungen und der Entwicklung der Bauindustrie.

Der CML-Datensatz kombinierte sowohl visionsbasierte als auch IMU-basierte Mocap-Datensätze, um seine Allgemeingültigkeit und Vielseitigkeit sicherzustellen. Allerdings sind die von beiden Systemen repräsentierten Gelenke nicht perfekt ausgerichtet; Beispielsweise neigen visionsbasierte Systeme dazu, die Skelettgelenke als geometrische Mitte von Körperteilen vorherzusagen, während IMU-basierte Systeme Gelenkbewegungen an der Stelle aufzeichneten, an der die Sensoren angebracht waren. Dies führt zu leichten Inkonsistenzen in der Körperhaltung. Darüber hinaus sind Bautätigkeiten stark werkzeugabhängig, was zu unterschiedlichen Tätigkeiten, aber gleichen Skelettbewegungen führen kann. Daher sind die in dieser Studie kommentierten Bewegungsbezeichnungen allgemein gehalten und ungenau. Für die hochauflösende Aktivitätserkennung sind Eingaben von anderen Sensorquellen erforderlich.

Im CML-Datensatz sind 60 Bezeichnungen für baubezogene Aktivitäten vordefiniert, in der Praxis gibt es jedoch noch viele weitere verschiedene Arten von Aktivitäten. Daher sind die 60 Etiketten generisch konzipiert, um ähnliche Aktivitäten abzudecken. Angesichts der Komplexität und Vielfalt der Bauaufgaben und der Prozessorganisation sind zusätzliche Informationen (z. B. von den Arbeitern verwendete Werkzeuge und Ausrüstung, Arbeitsumgebung, Standortkontext usw.) zur weiteren Differenzierung professionellerer Aktivitäten erforderlich.

Diese Studie nutzte Mathwork Matlab 2020a, um die ASF/AMC- und BVH-Dateien zu analysieren und zu exportieren. Der zum Parsen dieser Dateien verwendete Open-Source-Code kann unter https://github.com/lawrennd/mocap bezogen werden.

Diese Studie nutzte Python 3.7.6 und erweiterte ein 17-teiliges BVH-Konvertierungspaket, video-to-pose3D (https://github.com/HW140701/VideoTo3dPoseAndBvh), um BVH-Dateien zu generieren. Das neu entwickelte Paket kann die JSON-Dateien von Modellen mit 15 oder 20 Gelenken in BVH-Dateien umwandeln. Der entwickelte Code kann über die folgende URL aufgerufen werden: https://github.com/YUANYUAN2222/GIT_json_to_BVH. In der Zwischenzeit könnte der Code zum erneuten Markieren und Verarbeiten verschiedener Datensätze (z. B. Resampling und Ausrichtung der Skelettstruktur) verwendet werden. Er wird auf GitHub (https://github.com/YUANYUAN2222/Integrated-public-3D-skeleton-form-CML) veröffentlicht -Bibliothek), die es allen Lesern und potenziellen Benutzern ermöglicht, den Quelldatensatz selbst zu verarbeiten.

Li, H., Lu, M., Hsu, S.-C., Gray, M. & Huang, T. Proaktives verhaltensbasiertes Sicherheitsmanagement zur Verbesserung der Bausicherheit. Sicher. Wissenschaft. 75, 107–117 (2015).

Artikel Google Scholar

Seo, J., Moon, M. & Lee, S. Baubetriebssimulation, die die Muskelermüdung der Arbeiter widerspiegelt. in Computing in Civil Engineering 2015 515–522 (American Society of Civil Engineers, 2015).

Wang, D., Dai, F. & Ning, X. Risikobewertung arbeitsbedingter Muskel-Skelett-Erkrankungen im Baugewerbe: Übersicht über den neuesten Stand der Technik. J. Constr. Ing. Geschäftsführer 141, 04015008 (2015).

Artikel Google Scholar

Jiang, Z., Lin, Z. & Davis, LS Ein einheitliches baumbasiertes Framework für die Lokalisierung, Erkennung und Segmentierung gemeinsamer Aktionen. Berechnen. Vis. Bildverstand. 117, 1345–1355 (2013).

Artikel Google Scholar

Spielholz, P., Silverstein, B., Morgan, M., Checkoway, H. & Kaufman, J. Vergleich von Selbstberichten, Videobeobachtungen und direkten Messmethoden für physische Risikofaktoren für Muskel-Skelett-Erkrankungen der oberen Extremitäten. Ergonomie 44, 588–613 (2001).

Artikel CAS PubMed Google Scholar

Choudhry, RM Verhaltensbasierte Sicherheit auf Baustellen: Eine Fallstudie. Unfall. Anal. Vorher. 70, 14–23 (2014).

Artikel PubMed Google Scholar

Zhang, M. & Fang, D. Eine kontinuierliche verhaltensbasierte Sicherheitsstrategie zur dauerhaften Verbesserung der Sicherheit in der Bauindustrie. Autom. Konstr. 34, 101–107 (2013).

Artikel CAS Google Scholar

Dozzi, SP & AbouRizk, SM Produktivität im Baugewerbe. (Institut für Bauforschung, National Research Council Ottawa, 1993).

Guo, SY, Ding, LY, Luo, HB & Jiang, XY Eine Big-Data-basierte Plattform zum Verhalten von Arbeitnehmern: Beobachtungen aus der Praxis. Unfall. Anal. Vorher. 93, 299–309 (2016).

Artikel CAS PubMed Google Scholar

Li, C., Hou, Y., Wang, P. & Li, W. Auf gemeinsamen Distanzkarten basierende Aktionserkennung mit Faltungs-Neuronalen Netzen. IEEE-Signalprozess. Lette. 24, 624–628 (2017).

Artikel Google Scholar

Wang, P., Li, Z., Hou, Y. & Li, W. Aktionserkennung basierend auf gemeinsamen Trajektorienkarten unter Verwendung von Faltungs-Neuronalen Netzen. in Proceedings of the 24th ACM International Conference on Multimedia 102–106 (ACM, 2016).

Yang, X. & Tian, ​​Y. Effektive 3D-Aktionserkennung mit EigenJoints. J. Vis. Komm. Bild darstellen. 25, 2–11 (2014).

Artikel Google Scholar

Hbali, Y., Hbali, S., Ballihi, L. & Sadgal, M. Skelettbasierte menschliche Aktivitätserkennung für ältere Überwachungssysteme. IET-Computing. Vis. 12, 16–26 (2018).

Artikel Google Scholar

Szczęsna, A., Błaszczyszyn, M. & Pawlyta, M. Datensatz zur optischen Bewegungserfassung ausgewählter Techniken bei Anfängern und fortgeschrittenen Kyokushin-Karate-Athleten. Wissenschaft. Daten 8, 13 (2021).

Artikel PubMed PubMed Central Google Scholar

Bloom, V., Makris, D. & Argyriou, V. G3D: Ein Gaming-Action-Datensatz und ein Bewertungsrahmen für die Aktionserkennung in Echtzeit. im Jahr 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops 7–12 (IEEE, 2012).

Roda-Sales, A., Vergara, M., Sancho-Bru, JL, Gracia-Ibáñez, V. & Jarque-Bou, NJ Kinematische Daten der menschlichen Hand während Fütterungs- und Kochaufgaben. Wissenschaft. Daten 6, 167 (2019).

Artikel PubMed PubMed Central Google Scholar

Gong, J., Caldas, CH & Gordon, C. Lernen und Klassifizieren von Aktionen von Bauarbeitern und Geräten mithilfe von Bag-of-Video-Feature-Words und Bayes'schen Netzwerkmodellen. Adv. Ing. Informatik 25, 771–782 (2011).

Artikel Google Scholar

Yang, K., Ahn, CR, Vuran, MC & Aria, SS Halbüberwachte Beinahe-Sturzerkennung für Hüttenarbeiter mit einer tragbaren Trägheitsmesseinheit. Autom. Konstr. 68, 194–202 (2016).

Artikel Google Scholar

Yang, J., Shi, Z. & Wu, Z. Visionsbasierte Aktionserkennung von Bauarbeitern anhand dichter Flugbahnen. Adv. Ing. Informatik 30, 327–336 (2016).

Artikel Google Scholar

Roberts, D., Torres Calderon, W., Tang, S. & Golparvar-Fard, M. Visionsbasierte Aktivitätsanalyse von Bauarbeitern anhand der Körperhaltung. J. Comput. Zivil. Ing. 34, 04020017 (2020).

Artikel Google Scholar

Khosrowpour, A., Niebles, JC & Golparvar-Fard, M. Sichtbasierte Arbeitsplatzbewertung unter Verwendung von Tiefenbildern zur Aktivitätsanalyse von Innenausbauarbeiten. Autom. Konstr. 48, 74–87 (2014).

Artikel Google Scholar

Bangaru, SS, Wang, C., Busam, SA & Aghazadeh, F. ANN-basierte automatische Aktivitätserkennung von Gerüstbauern durch tragbare EMG- und IMU-Sensoren. Autom. Konstr. 126, 103653 (2021).

Artikel Google Scholar

Chen, J., Qiu, J. & Ahn, C. Erkennung der ungünstigen Körperhaltung eines Bauarbeiters durch überwachte Bewegungstensorzerlegung. Autom. Konstr. 77, 67–81 (2017).

Artikel Google Scholar

Akhavian, R. & Behzadan, AH Smartphone-basierte Erkennung und Klassifizierung von Bauarbeiteraktivitäten. Autom. Konstr. 71, 198–209 (2016).

Artikel Google Scholar

Fang, Y.-C. & Dzeng, R.-J. Eine Smartphone-basierte Erkennung von Sturzvorzeichen für Bauarbeiter. Procedia Eng. 85, 147–156 (2014).

Artikel Google Scholar

Ryu, J., Seo, J., Jebelli, H. & Lee, S. Automatisierte Aktionserkennung mithilfe eines in einen Beschleunigungsmesser eingebetteten Aktivitätstrackers in Armbandform. J. Constr. Ing. Geschäftsführer 145, 04018114 (2019).

Artikel Google Scholar

Ryu, J., Seo, J., Liu, M., Lee, S. & Haas, CT Aktionserkennung mit einem Aktivitätstracker vom Typ Armband: Fallstudie zu Mauerwerksarbeiten. im Construction Research Congress 2016 790–799 (American Society of Civil Engineers, 2016).

Antwi-Afari, MF et al. Deep-Learning-basierte Netzwerke zur automatisierten Erkennung und Klassifizierung unangenehmer Arbeitshaltungen im Baugewerbe mithilfe tragbarer Einlegesohlensensordaten. Autom. Konstr. 136, 104181 (2022).

Artikel Google Scholar

Antwi-Afari, MF, Li, H., Yu, Y. & Kong, L. Tragbares Einlegesohlen-Drucksystem zur automatischen Erkennung und Klassifizierung unangenehmer Arbeitshaltungen bei Bauarbeitern. Autom. Konstr. 96, 433–441 (2018).

Artikel Google Scholar

Antwi-Afari, MF et al. Quantifizierung der Gangmuster von Arbeitern zur Identifizierung von Sicherheitsrisiken im Baugewerbe mithilfe eines tragbaren Einlegesohlen-Drucksystems. Sicher. Wissenschaft. 129, 104855 (2020).

Artikel Google Scholar

Antwi-Afari, MF et al. Deep-Learning-basierte Netzwerke zur automatisierten Erkennung und Klassifizierung unangenehmer Arbeitshaltungen im Baugewerbe mithilfe tragbarer Einlegesohlensensordaten. Autom. Konstr. 136, 104181 (2022).

Artikel Google Scholar

Müller, M. et al. Dokumentation der Mocap-Datenbank HDM05. http://resources.mpi-inf.mpg.de/HDM05/ (2007).

Ofli, F., Chaudhry, R., Kurillo, G., Vidal, R. & Bajcsy, R. Berkeley MHAD: Eine umfassende multimodale Datenbank für menschliches Handeln. https://tele-immersion.citris-uc.org/berkeley_mhad (2013).

Shahroudy, A., Liu, J., Ng, T.-T. & Wang, G. NTU RGB+D: Ein groß angelegter Datensatz für die 3D-Analyse menschlicher Aktivitäten. https://rose1.ntu.edu.sg/dataset/actionRecognition/ (2016).

Sung, J., Ponce, C., Selman, B. & Saxena, A. Erkennung menschlicher Aktivität anhand von RGBD-Bildern. http://pr.cs.cornell.edu/humanactivities/data.php (2011).

Keyserling, WM, Brouwer, M. & Silverstein, BA Die Wirksamkeit eines gemeinsamen Wehenmanagementprogramms bei der Kontrolle unangenehmer Körperhaltungen von Rumpf, Nacken und Schultern: Ergebnisse einer Feldstudie. Int. J. Ind. Ergon. 11, 51–65 (1993).

Artikel Google Scholar

Internationale Enzyklopädie der Ergonomie und menschlichen Faktoren – 3-bändiges Set. (CRC Press, 2006).

Karwowski, W. Internationale Enzyklopädie der Ergonomie und menschlichen Faktoren, Band 3. (CRC Press, 2001).

Afsar, P., Cortez, P. & Santos, H. Automatische Erkennung menschlicher Handlungen aus Videos unter Verwendung des Hidden-Markov-Modells. im Jahr 2015 IEEE 18th International Conference on Computational Science and Engineering 105–109 (IEEE, 2015).

Hadfield, S. & Bowden, R. Hollywood 3D: Erkennen von Aktionen in natürlichen 3D-Szenen. im Jahr 2013 IEEE-Konferenz zu Computer Vision und Mustererkennung 3398–3405 (IEEE, 2013).

Aggarwal, JK & Ryoo, MS Analyse menschlicher Aktivitäten: Ein Rückblick. ACM-Computing. Überleben. 43, 1–43 (2011).

Artikel Google Scholar

Han, S., Lee, S. & Peña-Mora, F. Sichtbasierte Erkennung unsicherer Handlungen eines Bauarbeiters: Fallstudie zum Leiterklettern. J. Comput. Zivil. Ing. 27, 635–644 (2013).

Artikel Google Scholar

Guo, H., Yu, Y., Ding, Q. & Skitmore, M. Bild- und Skelett-basierter parametrisierter Ansatz zur Echtzeiterkennung unsicheren Verhaltens von Bauarbeitern. J. Constr. Ing. Geschäftsführer 144 (2018).

Yu, Y., Guo, H., Ding, Q., Li, H. & Skitmore, M. Eine experimentelle Studie zur Echtzeiterkennung unsicheren Verhaltens von Bauarbeitern. Autom. Konstr. 82, 193–206 (2017).

Artikel Google Scholar

Nath, ND, Akhavian, R. & Behzadan, AH Ergonomische Analyse der Körperhaltung von Bauarbeitern mithilfe tragbarer mobiler Sensoren. Appl. Ergon. 62, 107–117 (2017).

Artikel PubMed Google Scholar

Luo, X. et al. Auf dem Weg zu einer effizienten und objektiven Arbeitsstichprobe: Erkennung von Arbeiteraktivitäten in Standortüberwachungsvideos mit Zwei-Stream-Faltungsnetzwerken. Autom. Konstr. 94, 360–370 (2018).

Artikel Google Scholar

Bai, Y., Huan, J. & Kim, S. Messung der Effizienz des Brückenbaus mithilfe des drahtlosen Echtzeit-Videoüberwachungssystems. J. Geschäftsführer Ing. 28, 120–126 (2012).

Artikel Google Scholar

Hignett, S. & McAtamney, L. Rapid Entire Body Assessment (REBA). Appl. Ergon. 31, 201–205 (2000).

Artikel CAS PubMed Google Scholar

McAtamney, L. & Nigel Corlett, E. RULA: eine Umfragemethode zur Untersuchung arbeitsbedingter Erkrankungen der oberen Extremitäten. Appl. Ergon. 24, 91–99 (1993).

Artikel CAS PubMed Google Scholar

Karhu, O., Härkönen, R., Sorvali, P. & Vepsäläinen, P. Beobachtung von Arbeitshaltungen in der Industrie: Beispiele für die OWAS-Anwendung. Appl. Ergon. 12, 13–17 (1981).

Artikel CAS PubMed Google Scholar

Gesundheits- und Sicherheitsbeauftragter (HSE). Bewertungstabelle für manuelle Handhabung. http://www.hse.gov.uk/msd/mac/ (2014).

Buchholz, B., Paquet, V., Punnett, L., Lee, D. & Moir, S. PATH: Ein auf Arbeitsproben basierender Ansatz zur ergonomischen Arbeitsanalyse für Bauarbeiten und andere sich nicht wiederholende Arbeiten. Appl. Ergon. 27, 177–187 (1996).

Artikel CAS PubMed Google Scholar

Ministerium für Arbeit und Industrie des US-Bundesstaates Washington. WAC 296–62-051 Ergonomieregeldokumente. http://www.humanics-es.com/ergorulewithappendices.pdf (2010).

Hwang, B.-G. & Soh, CK Produktivitätsmessung auf Handelsebene: Kritische Herausforderungen und Lösungen. J. Constr. Ing. Geschäftsführer 139, 04013013 (2013).

Artikel Google Scholar

Dai, J., Goodrum, PM & Maloney, WF: Wahrnehmung von Handwerksarbeitern im Baugewerbe hinsichtlich der Faktoren, die ihre Produktivität beeinflussen. J. Constr. Ing. Geschäftsführer 135, 217–226 (2009).

Artikel Google Scholar

Lingard, H. & Rowlinson, S. Arbeitssicherheit und Gesundheitsschutz im Bauprojektmanagement. (Routledge, 2004).

Bohm, J. & Harris, D. Risikowahrnehmung und Risikobereitschaft von Fahrern von Baustellenkippern. Int. J. besetzen. Sicher. Ergon. 16, 55–67 (2010).

Artikel PubMed Google Scholar

Statistics, B. of L. Workplace Injuries & Illnesses, US-Arbeitsministerium, Washington, DC, 2011.

Han, S. & Lee, S. Ein visionsbasiertes Bewegungserfassungs- und Erkennungsframework für verhaltensbasiertes Sicherheitsmanagement. Autom. Konstr. 35, 131–141 (2013).

Artikel Google Scholar

Hinze, J., Pedersen, C. & Fredley, J. Ermittlung der Grundursachen von Bauschäden. J. Constr. Ing. Geschäftsführer 124, 67–71 (1998).

Artikel Google Scholar

Choudhry, RM Implementierung von BBS und die Auswirkungen des Engagements auf Standortebene. J. Prof. Issues Eng. Educ. Üben. 138, 296–304 (2012).

Artikel Google Scholar

Punnett, L. & Wegman, DH Arbeitsbedingte Muskel-Skelett-Erkrankungen: die epidemiologischen Beweise und die Debatte. J. Elektromyogr. Kinesiol. 14, 13–23 (2004).

Artikel PubMed Google Scholar

Jaffar, N., Abdul-Tharim, AH, Mohd-Kamar, IF & Lop, NS Eine Literaturübersicht über ergonomische Risikofaktoren in der Bauindustrie. Procedia Eng. 20, 89–97 (2011).

Artikel Google Scholar

James T., A. & Cheryl F., E. Einfache Lösungen zur Ergonomie für Bauarbeiter. DHHS Publ. Nr. 2007–122 92 (2007).

Tian, ​​Y., Li, H., Cui, H. & Chen, J. Baubewegungsdatenbibliothek: ein integrierter Bewegungsdatensatz für die Aktivitätserkennung vor Ort. figshare https://doi.org/10.6084/m9.figshare.20480787.v3 (2022).

Zhu, W. et al. Kookkurrenz-Feature-Lernen für die skelettbasierte Aktionserkennung unter Verwendung regulierter tiefer LSTM-Netzwerke. in Proceedings of the AAAI Conference on Artificial Intelligence vol. 30 (2016).

LeCun, Y., Bottou, L., Bengio, Y. & Haffner, P. Gradientenbasiertes Lernen angewendet auf die Dokumentenerkennung. Proz. IEEE 86, 2278–2324 (1998).

Artikel Google Scholar

Krizhevsky, A., Sutskever, I. & Hinton, GE Imagenet-Klassifizierung mit tiefen Faltungs-Neuronalen Netzen. Adv. Neuronale Inf. Verfahren. Syst. 25, 1097–1105 (2012).

Google Scholar

He, K., Zhang, X., Ren, S. & Sun, J. Deep Residual Learning für die Bilderkennung. im Jahr 2016 IEEE-Konferenz zu Computer Vision und Mustererkennung (CVPR) 770–778 (IEEE, 2016).

Glorot, X., Bordes, A. & Deep, Y. Deep Sparse Rectifier Neural Networks. in Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics, PMLR, Ft. Lauderdale Bd. 15 275.

Kingma, DP & Ba, J. Eine Methode zur stochastischen Optimierung. In: 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, 7.–9. Mai 2015, Conference Track Proceedings. bei (2015).

Escorcia, V., Dávila, MA, Golparvar-Fard, M. & Niebles, JC Automatisierte visuelle Erkennung von Bauarbeiteraktionen für Bauarbeiten im Innenbereich von Gebäuden mithilfe von RGBD-Kameras. im Construction Research Congress 2012 879–888 (American Society of Civil Engineers, 2012).

Motion-Capture-Datenbank der Carnegie Mellon University. http://mocap.cs.cmu.edu.

Yun, K., Honorio, J., Chattopadhyay, D., Berg, TL & Samaras, D. Erkennung von Zwei-Personen-Interaktionen mithilfe von Körperhaltungsmerkmalen und Lernen mehrerer Instanzen. https://www.kaggle.com/datasets/dasmehdixtr/two-person-interaction-kinect-dataset (2012).

Li, W., Zhang, Z. & Liu, Z. Aktionserkennung basierend auf einer Tüte mit 3D-Punkten. https://sites.google.com/view/wanqingli/data-sets/msr-action3d (2010).

Xia, L., Chen, C.-C. & Aggarwal, JK Sehen Sie sich die Erkennung invarianter menschlicher Handlungen mithilfe von Histogrammen von 3D-Gelenken an. http://cvrc.ece.utexas.edu/KinectDatasets/HOJ3D.html (2012).

Ellis, C., Masood, SZ, Tappen, MF, LaViola, JJ & Sukthankar, R. Erforschung des Kompromisses zwischen Genauigkeit und Beobachtungslatenz bei der Aktionserkennung. http://www.syedzainmasood.com/research.html (2013).

Fothergill, S., Mentis, H., Kohli, P. & Nowozin, S. Unterweisung von Menschen für das Training gestischer interaktiver Systeme. https://www.microsoft.com/en-us/download/details.aspx?id=52283 (2012).

Ionescu, C., Papava, D., Olaru, V. & Sminchisescu, C. Human3. 6m: Großräumige Datensätze und Vorhersagemethoden für die dreidimensionale menschliche Wahrnehmung in natürlichen Umgebungen. http://vision.imar.ro/human3.6m/description.php (2014).

Liu, C., Hu, Y., Li, Y., Song, S. & Liu, J. PKU-MMD: Ein groß angelegter Maßstab für kontinuierliches multimodales menschliches Handlungsverständnis. https://www.icst.pku.edu.cn/struct/Projects/PKUMMD.html?aimglfkfkfcjmopp (2017).

Hu, J.-F., Zheng, W.-S., Lai, J. & Zhang, J. Gemeinsames Erlernen heterogener Merkmale für die RGB-D-Aktivitätserkennung. https://www.isee-ai.cn/~hujianfang/ProjectJOULE.html (2015).

Referenzen herunterladen

Diese Arbeit wurde finanziell vom General Research Fund des University Grants Committee of Hong Kong (UGC), #11209620, und dem Talent Introduction Fund der Tsinghua University, #533314002, unterstützt. Alle in diesem Dokument geäußerten Meinungen, Erkenntnisse, Schlussfolgerungen oder Empfehlungen sind die der Autoren und spiegeln nicht unbedingt die Ansichten von UGC und der Tsinghua-Universität wider.

Fakultät für Architektur und Bauingenieurwesen, City University of Hong Kong, Sonderverwaltungszone Hongkong, China

Yuanyuan Tian

Abteilung für Bauwesen und Immobilien, Hong Kong Polytechnic University, Sonderverwaltungszone Hongkong, China

Heng Li

Hochschule für Bau- und Verkehrsingenieurwesen, Universität Shenzhen, Shenzhen, China

Hongzhi Cui

Fakultät für Bauingenieurwesen, Tsinghua-Universität, Peking, China

Jiayu Chen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Yuanyuan Tian – Datenerfassung, Datenkennzeichnung, Datenverarbeitung, Datensatzvorbereitung. Heng Li – Datenvalidierung, Korrekturlesen. Hongzhi Cui – Datenvalidierung, Datenkalibrierung. Jiayu Chen – Projektkonzeption, Datenverarbeitung, Datenvalidierung, Korrekturlesen.

Korrespondenz mit Jiayu Chen.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Tian, ​​Y., Li, H., Cui, H. et al. Bibliothek für Baubewegungsdaten: ein integrierter Bewegungsdatensatz für die Aktivitätserkennung vor Ort. Sci Data 9, 726 (2022). https://doi.org/10.1038/s41597-022-01841-1

Zitat herunterladen

Eingegangen: 03. Dezember 2021

Angenommen: 14. November 2022

Veröffentlicht: 26. November 2022

DOI: https://doi.org/10.1038/s41597-022-01841-1

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt