Dobry,
Kontynuując nieszczęsny wątek kodowania, wpadłem znowu w kłopot.
Pobieram stronę www z encoding='utf-8'
, BeautifulSoup też utf8
. Zapisuje potem dane do pliku csv, już bez utf-8
bo to ustawie to pojawiają się inne znaki. Wszystko działa aż napotkam na 1800 g/m²
(tak zakładam) i wszystko się sypie. Ta 2 to nie indeks górny <sup>
:( i zakładam że przez to mam ten błąd:
UnicodeEncodeError: 'charmap' codec can't encode character '\xb2' in position 347: character maps to <undefined>
Jak poradzić sobie z takim fantem?
Robię coś takiego: pobrana_Strona = pobrana_Strona.encode('utf-8', 'ignore')
i nie pomaga :(
Ale pomogło dodanie errors='ignore'
przy otwieraniu pliku
csv_file = open('NOWY.csv', mode='w', newline='', errors='ignore')
Dumny jestem :D