1/58
Looks like no tags are added yet.
Name | Mastery | Learn | Test | Matching | Spaced | Call with Kai |
|---|
No analytics yet
Send a link to your students to track their progress
Wie funktioniert Bilderzeugung in der 3D Computergrafik?
verschiedene Teilprozesse:
Modellierung von 3D-Objekten
Aufbau eines Gesamtmodells (Geometrie + Licht + Kamera) â Clipping = Entfernen nicht benötigter oder unsichtbarer Elemente (RĂŒckseiten, Verdeckungen, Objekte auĂerhalb des Sichtkörpers)
Projektion (3D-Szene auf 2D Bildschirm)
Beleuchtungsberechnung
Rasterisierung (projizierten 2D-Daten in Pixel auf Bildschirm umgewandelt, 2D â Pixel)
Was sind die zwei Haupttypen von Projektion?
Perspektivische Projektion
Wie beim menschlichen Sehen: Dinge, die weiter entfernt sind, erscheinen kleiner.
Realistischer Eindruck von Tiefe.
Wird z.âŻB. in Spielen und 3D-Filmen verwendet.
Orthogonale (parallel) Projektion
Keine Perspektive, parallele Linien bleiben parallel.
GröĂe bleibt gleich, unabhĂ€ngig von Entfernung.
Wird oft fĂŒr technische Zeichnungen oder CAD verwendet.
Was sind Komponenten von Rendering?
Geometrie + Texturen + Licht + Kamera = Bild
Was ist die Rendering Pipeline?
Modell â Transformation (Skalierung, Rotation, Scherung) â Beleuchtung â Projektion â Clipping â Rasterisierung (siehe Folie 12)
Was gehört zur Transformation?
Translation, Skalierung, Rotation, Scherung
Was sind Eigenschaften der Beleuchtung?
Beleuchtungsberechnung an den Vertices (global/lokal)
Interpolation der Werte ĂŒber die FlĂ€che je nach Shading-Modell, hier lokal:
FlatâShading: Keine Interpolation, FlĂ€chennormale
Gouraud-Shading: Farbinterpolation, VertexâNormale
Phong-Shading: Vektor-Interpolation, Vertex-âNormale
Was heiĂt lokal und global?
Global: BerĂŒcksichtigung globaler Effekte wie Schatten, Spiegelungen etc.
Lokal: Nur direkte Beleuchtung vom Licht auf OberflĂ€che â einfacher und schneller.
Was passiert bei Projektion?
Projektion der Kamerakoordinaten auf die Bildschirmkoordinaten
Was passiert beim Clipping?
Clipping aller Polygone auĂerhalb des Viewports
Was ist Scan Conversion?
Prozess, bei dem geometrische Objekte in Pixel auf dem Bildschirm umgewandelt werden
Was passiert bei der Raserisierung?
Scan Conversion
Shading durch Beleuchtungs auswertung und Texturierung
Anti-Aliasing
Was ist polygonale ModellprÀsentation?
HĂŒlle von zusammenhĂ€ngenden Dreiecksnetzen (Meshes)
Polygonanzahl wichtig fĂŒr DarstellungsqualitĂ€t
Standard in der Computergrafik
Was ist Constructive Solid Geometry?
Boolesche VerknĂŒpfung geometrischer Primitive
WĂŒrfel, Zylinder, Torus, Pyramide, âŠ
Vereinigung, Subtraktion, Schnittmengenoperation
CSG-Baum
Was ist ein Voxel?
Zusammensetzung aus Pixel und Volume: Gitterpunkt in einem 3D-Gitter
entspricht Pixel in 2D-Bild
Position nicht gespeichert, implizit aus anderen Voxeln hergeleitet
bei Punkten oder Polygonen, Positionen der Eckpunkte gespeichert
Medizin oder Landschaften
Was sind 3D-Scans?
3D Entfernungsmessung â Laufzeitmessung
Ergebnis: Punktwolke â spĂ€ter FlĂ€chen durch Triangulierung
normalerweise: optisches Verfahren
â Vorteil: Genauigkeit/Geschwindigkeit
â Nachteil: ungĂŒnstige LichtverhĂ€ltnisse
Was ist point based surfaces?
Technologie zur Beschreibung von Kurven und OberflĂ€chen durch âloseâ Punktwolken
Was sind polygonale Modelle?
Punkte (Vertices) beschreiben genaue Eckpunkte eines/mehrerer Polygone. â durch surface reconstruction
Was sind Vorteile von Point Based Surfaces?
Effiziente Verarbeitung durch nicht zusammenhÀngende Punkte
Löschen, HinzufĂŒgen, Transformieren
Leichtere Handhabung des Level of Detail
Direkte Verarbeitung von 3D-Scans ohne Wandel in Polygonmodell
Verarbeitung der Punktwolken bis zum Rendervorgang
Was sind Nachteile von Point Based Surfaces?
EchtzeitfÀhigkeit eingeschrÀnkt
Sehr groĂe Datenmengen möglich
Keine direkte UnterstĂŒtzung durch aktuelle Grafikhardware
Warum nutzt man Texturen?
Texturen erhöhen visuelle AttraktivitÀt und Detailliertheit, ohne die Geometrie zu verÀndern
Was ist Texture Mapping?
Zuordnung der 2D Bildkoordinaten auf ein Polygon in 3D
Wie funktioniert Texture Mapping?
Gegeben: 2D Bild und ein 3D Objekt
Das 2D Bild wird âTexture Mapâ genannt
Die Pixel der Texture Map heiĂen Texels â Jede 2D Texture Map hat ein eigenes 2D Koordinatensystem (u,v)
Jede 3D OberflÀche liegt in einem 3D Koordinatensystem (x,y,z)
Das Mapping ist die Abbildung der Texture Map Koordinaten auf die Surface-Koordinaten (u,v) â (x,y,z)
Was kann ein Problem von Texture Mapping darstellen?
Wie kleine Textur mehrfach auf Polygon verteilen?
â UV-Koordinaten >1 und <0 fĂŒhren zu Randwiederholung, Spiegelung, Kachelung (einstellbar)
Komplexere Körper und Figuren - Wrapping Algorithmen â AufwĂ€ndiges abwickeln und texturieren â UVW Unwrap
Was gibt es fĂŒr Mapping-Techniken?
Bump Mapping, Displacement Mapping, Environment Mapping, Transparency Mapping, Parallax Mapping, âŠ
Was ist Colormaps?
fĂŒr verschiedene Lichtanteile (Ambient = Umgebungslicht, Diffuse = streuendes Licht, Specular = Farb-/Glanzlicht) können Farben definiert werden
Farbvergabe durch Farbtextur ĂŒberschreibbar
Was ist Perlin Noise?
spezielle Textur aus Grauwert-VerlÀufen
kontrollierte Störungen, sodass es realistischer aussieht
Bsp. Feuer, Wasser, Wolken
Was machen opacity und transparency?
opacity: opake Anteile einer OberflÀche
transparency: lichtdurchlÀssige Anteile einer OberflÀche
Was ist Bumpmapping?
effiziente Darstellung rauer OberflÀchenstrukturen ohne 3D-Modell zu verÀndern
Wie funktioniert Bumpmapping?
Berechnung der geometrischen FlÀchennormale
Berechnung der zweiten FlÀchennormale aufgrund der Höheninformation
Verrechnung der beiden Normalen (beiden Normale werden verrechnet)
Helligkeitsberechnung durch Shadingverfahren
Was heiĂt Berechnung der geometrischen FlĂ€chennormale?
Beleuchtung hÀngt von OberflÀchennormale (Vektor) ab
â Bumpmapping verĂ€ndert diese = Licht wird anders reflektiert
Was heiĂt Berechnung der zweiten FlĂ€chennormale aufgrund der Höheninformation?
Höheninformationen aus einer Bump-Map â kleine Unebenheiten auf der OberflĂ€che â Berechnung zusĂ€tzlicher Normalen
Was ist der Unterschied zwischen Bump-Mapping und Displace-Mapping?
Displace-Mapping: tatsÀchliche GeometriverÀnderung/Tesselierung
Was ist Parallax-Mapping?
erzeugt Illusion eines Parallaxeffektes
â Verschiebung von Texturkoordinaten in AbhĂ€ngigkeit von
Betrachtungswinkel
Höhe (Height-Map) des Objektes
Was ist Environment Mapping?
Raum wird ohne Spiegeleffekt gerendert und Raum wird dann auf das ObjektoberflÀche gemappt
Was ist Texture Baking?
Texturen auf Objekte aufbringen und gewĂŒnschte Effekte anwenden (Lichtstimmung, Bumpmapping, âŠ)
Fertige Textur rendern
Erneut als Colormap auf Textur anwenden
Was macht Lightmaps?
Lightmaps sind spezielle Texturen, die die Beleuchtung und Schatten einer 3D-Szene vorab speichern.
Was ist Mip Mapping?
ganze Reihe von Bildern, die immer kleiner werden
KantenlÀnge halbiert sich
wenn Objekt weit entfernt ist: Nutzung von kleinerer Textur, spart Rechenleistung
benötigt mehr Speicher, weil mehrere Versionen der Textur gespeichert werden
Performance und QualitÀt besser
Was sind Filtermethoden beim Mip Mapping?
Nearest Neighbour/Point Sampling
Bilineare Filterung
Trilineare Filterung
Anisotropisches Filtering
Was ist Nearest Neighbour Interpolation?
kopiert einfach den Wert des nĂ€chstgelegenen Pixels, um neue Bildkanten zu fĂŒllen â schnell, oft mit sichtbaren Kanten
Was ist bilineare Filterung?
Farbdurchschnitt fĂŒr neuen Pixel anhand der vier dem Pixelzentrum nĂ€chsten gelegenen Texeln interpoliert berechnet
Was ist Trilineare Filterung?
zuerst bilineare Interpolation zwischen zwei benachbarten
danach: zwischen den beiden Ergebnissen der bilinearen Filterung linear interpoliert
Was ist anisotropisches Filtering?
Filtermechanismus, der auch bei variierendem Betrachtungswinkel (typ. 3D Szene) korrekte Ergebnisse liefert
Was sind Komponenten eines Renderings?
Geometrie + Texturen + Licht + Kamera = Bild
Ziel: möglichst realistisch Wechselwirkung zwischen Licht und OberflÀchen beschreiben
Was ist die Rolle von Lichtquellen?
Vermittlung (realistischer) Stimmungen
rÀumliche Darstellung / Lichtfarben
ohne (Default-)Licht ist auch eine 3D-Szene dunkel!
Welche Arten von Lichtquellen gibt es?
Umgebungslicht (Ambient Light)
Punktlicht (Omni Light)
Gerichtetes Licht (Directional Light)
Spotlight
Was ist Umgebungslicht (Ambient Light)?
vorhanden, auch wenn keine Lichtquelle definiert sind
durchschnittliche Helligkeit einer Szene
Bsp.: Tageslichtreflexionen
Was ist Umgebungslicht (Omni Light)?
punktförmige Lichtquellen senden Lichtstrahlen in alle Richtungen
Grundstimmung einer Szene
Bsp.: Lampe
Was ist gerichtetes Licht (Directional Light)?
Licht strahlt in bestimmte Richtungen
StrahlenintensitĂ€t gleichmĂ€Ăig
Bsp.: Sonne
Was ist Spotlight?
definierter Lichtkegel
Akzentsetzung in einer Szene
Bsp.: Gerichteter Strahler
Welche Lichtanteile gibt es?
Ambient: Generelles Licht
Diffus: Diffuse Lichtreflexion in alle Richtungen
Spekular: Glanz- oder Spitzlichter
Was sind lokale Beleuchtungsmodelle?
simulieren Verhalten von Licht auf OberflÀchen
Helligkeit/Farbe eines OberflÀchenpunkts berechnet durch Blickrichtung, Lichteinfallswinkel, Materialeigenschaften des Objektes und Lichtquellen
Was sind die bekanntesten lokale Beleuchtungsmodelle?
Lambert-Beleuchtungsmodell (1760)
Phong-Beleuchtungsmodell (1975)
Was machen globale Beleuchtungsmodelle?
betrachten gesamte Szene zur Bestimmung der Lichtwirkung an einem Punkt
aufwendige Berechnungen
Was sind die zwei Hauptverfahren der globalen Beleuchtungsmodelle?
Raytracing
Radiosity
Was ist Raytracing?
simuliert komplexe Lichtinteraktion in einer 3D-Szene
â Licht mehrfach reflektiert, gebrochen oder gestreut
verfolgt jeden Lichtstrahl von jeder Lichtquelle und dessen Reflexion auf allen OberflÀche
â Statt von der Lichtquelle aus zu rechnen, wird ârĂŒckwĂ€rtsâ vom Auge (Kamera) durch jeden Pixel ein Strahl in die Szene geschickt.
Wie funktioniert Raytracing in der Praxis?
FĂŒr jeden Bildpixel wird ein Strahl vom Betrachter in die Szene gesendet.
Der Strahl trifft auf ein Objekt, und es werden Lichtberechnungen durchgefĂŒhrt.
Es wird geprĂŒft, ob und wie das Licht von Lichtquellen kommt, auch ĂŒber Reflexionen und Brechungen.
Die Farbe und Helligkeit des Pixels werden so berechnet, dass realistische Licht- und Schatteneffekte entstehen.
Was sind Eigenschaften von Raytracing?
Vorteile:
sehr realistische Bilder mit echten Schatten, Reflexionen, Brechungen.
Simuliert auch indirektes Licht
Nachteile:
Sehr rechenintensiv, vor allem bei komplexen Szenen.
Nicht immer in Echtzeit möglich
Was ist Radiosity?
Berechnung diffuser Licht-Reflexionen in einer 3D-Szene
Annahme: alle OberflĂ€chen sind ideal diffuse Reflektoren, d.h. Licht wird in alle Richtungen gleichmĂ€Ăig abgestrahlt
Energieerhaltungssatz: alles Licht, das eine FlÀche empfÀngt und nicht absorbiert, muss sie wieder reflektieren
Vergleich Radiosity und Raytracing